Par Florent Griffon, Responsible Investment Specialist chez DPAM
Le fait marquant sur les marchés pour l’année 2023 sera, on peut déjà l’annoncer, l’émergence de l’Intelligence Artificielle (IA) comme thème d’investissement incontournable. Cet engouement des marchés reflète les gains de productivité colossaux que l’Intelligence Artificielle devrait apporter, et ce à travers de nombreux secteurs. Mais comment faire en sorte que l’Intelligence Artificielle ne déstabilise pas nos économies, nos sociétés, nos démocraties ? Et donc, comment combiner investissement dans l’IA avec un angle ESG ? En somme, comment investir dans l’IA de manière responsable et durable ?
Quelle approche ESG pour l’investisseur responsable et durable?
On a vu que le champ d’application de l’Intelligence Artificielle génératives est très étendu et que ses implications ne sont pas toutes connues. D’ores et déjà, on peut anticiper que l’IA aura un impact transversal sur les trois piliers de l’ESG. Sur l’environnement, d’abord sur les enjeux climatiques et énergétiques. Dans la sphère sociale, à travers les enjeux d’inégalités, d’éducation, de formation et d’emplois. Et, enfin, en matière de gouvernance, avec des questions clés dans les domaines de la cybersécurité, de la protection des données et de l’anonymat, de la lutte contre la corruption, et de la conformité au droit en général.
Ne pas être complice de sa mauvaise utilisation…
Etant donné les potentialités importantes de l’IA, son usage devra être encadré, pour s’assurer que nos sociétés bénéficieront de ses apports, sans pâtir de ses risques ou de ses dérives. Plus que l’IA en elle-même, c’est donc la manière avec laquelle elle est déployée qui importe.
Pour ce faire, il appartient aux investisseurs durables de vérifier les quatre points suivants : la finalité des solutions IA développées par les entreprises, mais aussi la gouvernance de ces modèles IA ainsi que les bonnes pratiques mises en place pour les encadrer. Enfin, on vérifiera leur éventuelle implication dans des controverses ESG et leur conformité aux normes globales de durabilité notamment le Pacte Mondial des Nations Unies.
Sur le critère de la finalité des modèles IA, on recommandera par exemple d’exclure toute application IA destinée à l’armement (par ex. robots tueurs…), ou visant à influencer (deepfakes…) ou à identifier l’utilisateur (face recognition), ou encore à analyser ses émotions ou à prédire son comportement futur. Au-delà, on pourra aussi se référer aux Objectifs de Développement Durable de l’ONU et s’abstenir d’investir dans des modèles IA dont la finalité va à l’encontre de leur réalisation.
Pour l’analyse de la gouvernance des solutions IA, on pourra s’appuyer sur le cadre de l’OCDE pour la classification des systèmes d’IA, qui doit aider à identifier les modèles présentant des risques pour les humains ou pour la planète[1]. Ce cadre pose notamment les questions clés suivantes : l’utilisateur conserve-t’il la liberté de se soustraire au modèle IA? Les données utilisées sont-elles propriétaires, publiques ou privées ? Ces données ont-elles été prélevées conformément au droit (GDPR)? Ces données sont-elles anonymisées ? « Pseudonymisées »? Le modèle donne-t-il suffisamment d’information à l’utilisateur pour que celui-ci comprenne ses résultats ? Dans quelle mesure le modèle est-il soumis à une supervision humaine ? En cas de réponses négatives à ces questions, l’investisseur durable devra probablement s’abstenir d’investir.
Il conviendra aussi de passer en revue les bonnes pratiques adoptées par les entreprises fournissant ces modèles IA, par exemple (liste non-exhaustive): l’utilisation de smart datacenters fonctionnant à l’électricité renouvelable, l’intégration de l’objectif d’efficience énergétique dans le code du modèle IA[2], l’application de correctifs anti-discrimination, des mesures de protection de l’anonymat en particulier des données médicales, des restrictions sur les contenus générés pour s’assurer qu’ils ne sont pas néfastes, dangereux, et qu’ils ne vont pas à l’encontre de la loi.
Enfin, on recommandera d’exclure les modèles IA sujets à des controverses ESG sévères ou soupçonnés de violer les principes du Pacte Mondial des Nations Unies. Ainsi on s’abstiendra d’investir dans des modèles IA présentant des risques significatifs pour les droits de l’homme (la dignité humaine, la liberté d’expression, la santé mentale et physique des personnes, le droit à la non-discrimination), pour les droits au travail (bien-être au travail, qualité des emplois, formation et compétences), pour l’environnement (risques climatiques, eau) et, enfin, pour la lutte contre la corruption (criminalité et cybercriminalité, fraudes, protection de l’état de droit).
Mais soutenir ses applications les plus responsables et durables
Par contraste, l’IA a aussi le potentiel d’apporter de nombreux bénéfices sociétaux et environnementaux, là encore dans de nombreux domaines. Par exemple elle peut aider au développement de solutions technologiques dans le domaine de la transition énergétique, de la conception des équipements de génération, de stockage et de transport de l’énergie, à la gestion de ces infrastructures. L’IA devrait notamment aider à gérer les réseaux de transport et de distribution électriques, une tâche rendue de plus en plus complexe du fait du développement des énergies renouvelables intermittentes. En renforçant la recherche scientifique, l’IA pourrait aussi aider à mettre au point de nouvelles solutions. Aussi, l’IA devrait améliorer fortement la fiabilité des prévisions météorologiques, et aider à identifier les vulnérabilités de nos pays aux événements climatiques extrêmes. Ce faisant l’IA aidera à orienter les efforts d’adaptation au changement climatique.
D’un point de vue social aussi, l’IA présente des potentialités intéressantes, notamment à travers des solutions éducatives personnalisées plus efficaces, de meilleurs diagnostiques de santé, des avancées scientifiques, une meilleure capacité à rassembler et à traiter de l’information, entre autres. Des exemples concrets existent déjà. Citons des bâtiments intelligents qui optimisent leur consommation énergétique en fonction des prévisions météorologiques et donc en anticipant la disponibilité d’électricité renouvelable. Ou encore des solutions d’éducation et de formation personnalisées qui identifient les lacunes de chaque utilisateur et génèrent une solution d’apprentissage adaptatif. Des modèles IA d’audits passant en revue les comptes et publications des entreprises et estimant des risques d’implications dans des problèmes de corruption, de fraudes, de conformité, et qui établissent leur profil ESG. Des solutions IA adaptées aux administrations, permettant des gains de productivité importants.
Ainsi l’investissement durable a un important rôle à jouer en finançant les sociétés qui développent les applications d’intelligence artificielle les plus bénéfiques aux populations et à l’environnement. Les potentialités de l’IA sont vastes et variées. Son usage malveillant ou non-encadré nous fait encourir des risques importants. Mais bien utilisée, l’IA présente aussi des opportunités pour nos sociétés. Aux investisseurs durables d’identifier les investissements présentant un impact durable positif et ce, en matière environnementale, sociale et de gouvernance.
Disclaimer : Toute forme d’investissement comporte des risques. Les performances passées ne préjugent pas des performances futures.
Consultez aussi le corner Placements responsables
[1] https://oecd.ai/fr/classification
[2] MIT Technology review, These simple changes can make AI research much more energy efficient, https://www.technologyreview.com/2022/07/06/1055458/ai-research-emissions-energy-efficient/