Par Florent Griffon, Responsible Investment Specialist chez DPAM
Le fait marquant sur les marchés pour l’année 2023 sera, on peut déjà l’annoncer, l’émergence de l’Intelligence Artificielle (IA) comme thème d’investissement incontournable. En atteste l’entrée de Nvidia Corp dans le club très fermé des entreprises dont la capitalisation boursière dépasse le trillion de dollars. Cet engouement des marchés reflète les gains de productivité colossaux que l’Intelligence Artificielle devrait apporter et ce, à travers de nombreux secteurs. Mais quel impact social et environnemental aura cette nouvelle « révolution » économique ? L’Intelligence Artificielle ne risque-t-elle pas de déstabiliser nos économies, nos sociétés, nos démocraties ? Et donc, l’IA est-elle « ESG compatible » ?
Les promesses de l’IA…
L’Intelligence Artificielle générative (c’est-à-dire l’IA qui produit du texte, des images, des vidéos, de la musique, des codes, du design) devrait transformer nos vies. En reproduisant des réseaux de neurones, et en les multipliant, l’IA imitait déjà les compétences humaines (via le processus du « deep learning »). L’IA générative va déjà au-delà, en ce qu’elle est capable de raisonner comme une personne, ce qui étend fortement le type de contenus qu’elle est capable de générer. De fait, l’IA générative devrait donc trouver des applications dans une grande variété de domaines et dans tous les secteurs économiques. D’une manière générale, l’IA devrait rendre les employés beaucoup plus efficients, notamment en prenant en charge des tâches de production de contenus, de synthèse de données, des tâches administratives et de support. Les employés passeront donc moins de temps à « produire », et plus de temps à vérifier le résultat de la production de l’IA générative. Notamment, l’IA ayant la capacité de générer des contenus factices, le besoin de vérification par des humains devrait fortement augmenter. Au total, l’IA générative pourrait entraîner un nouveau « supercycle de productivité », et pourrait améliorer la productivité mondiale de près d’un pour cent par an[1].
Mais l’IA pose de sérieuses questions éthiques …
L’IA pourrait générer des inégalités. L’IA pose de sérieuses questions éthiques. A commencer par son impact sur le marché du travail. Si on se réfère au concept de destruction créatrice de Joseph Schumpeter, les gains de productivité réalisés généreront une croissance économique de long terme. Sur le court terme cependant, celles et ceux dont les emplois auront été détruits devront retrouver un emploi, ce qui suscite des inquiétudes. Ainsi, le nombre de requêtes Google « mon emploi est-il menacé » a doublé sur les premiers mois de l’année, et des chercheurs d’OpenAI estiment que pour 80% des employés des Etats-Unis, au moins 10% des tâches seraient modifiées par l’arrivée de l’IA[2]. En réalité, l’impact sur l’emploi reste incertain. D’une manière générale, l’IA devrait améliorer la productivité dans tous les secteurs, et en particulier dans les services. La nature des emplois évoluera. Les employeurs comme les employés ont donc intérêt à accompagner ces changements, notamment par la formation.
L’IA et les discriminations ?
Un second enjeu est celui des discriminations. Plusieurs articles[3] ont souligné les risques de discrimination raciale, de genre, et contre les minorités et les handicapés, que certains algorithmes IA ont pu générer, dans des domaines comme l’accès au crédit, le recrutement ou les assurances. Ces biais proviennent généralement des bases de données qui nourrissent l’IA, qui sont elles-mêmes affectées par ces biais. Heureusement, il est possible d’enseigner à l’IA de ne pas reproduire ces biais. Les cadres réglementaires ont aussi un rôle à jouer.
Le besoin de contrôle des résultats
L’IA générative n’est pas infaillible non plus et elle peut générer des résultats incorrects voire néfastes. Mal calibrés, les premiers modèles d’IA peuvent, par exemple, relayer des informations biaisées ou fausses au corps électoral, donner accès à des contenus nuisibles à des populations fragiles (enfants, personnes âgées), ou engendrer des erreurs de diagnostic médical. On perçoit ici le besoin de contrôles de qualité efficaces tant par les fournisseurs de services IA, que par leurs utilisateurs.
La protection des données et la cybersécurité
L’IA générative exacerbe aussi les problématiques de l’usage illicite des données personnelles, de la reproduction illicite de contenus, et de la protection de l’anonymat. Elle rend aussi possible de la génération de publicité, d’information et de prix totalement personnalisée pour chaque utilisateur. En matière de cybersécurité, l’IA facilite la production de « deepfakes » et rend les fraudes plus convaincantes et donc plus dangereuses. Dans le même temps, l’IA devrait aussi renforcer les capacités de détection des tentatives de piratage et d’hameçonnage, et des logiciels malveillants.
Le risque d’une perte de contrôle
L’IA suscite aussi des craintes nettement plus fondamentales. Ainsi, le 30 mai 2023, plusieurs centaines d’experts dans le domaine de l’IA parmi les plus reconnus ont signé une déclaration sur les risques liés à l’IA[4] mettant en avant le risque d’extinction de l’espèce humaine. Aussi, Geoffrey Hinton l’un des pères scientifiques du « deep learning » et de l’IA a démissionné de Google affichant publiquement son inquiétude par rapport aux conséquences du développement très rapide de l’IA et, en particulier, de son utilisation par des acteurs malintentionnés. Le cœur du problème réside dans le fait que l’IA apprend si vite que ses créateurs humains ne la comprennent plus. L’IA pourrait alors développer ses propres objectifs, sans supervision humaine et prendre des décisions défavorables aux humains. Il est donc essentiel de développer des capacités étendues de contrôle de l’IA, de son mode de fonctionnement, de ses résultats, et de son usage.
Les régulateurs y travaillent déjà
Et les régulateurs y travaillent déjà. Toutefois, le développement rapide de l’IA générative et son adoption éclair sont si rapides que même les régulateurs les plus réactifs ont un temps de retard. L’Union européenne a été la première à réagir, avec son « Artifical Intelligence Act » qui devrait être voté d’ici la fin 2023. L’Union européenne vise à s’assurer d’un usage de l’IA « centré sur l’humain ». Cette législation devrait notamment interdire les pratiques les plus à risque : la manipulation cognitivo-comportementale de personnes ou de groupes vulnérables spécifiques, la notation sociale, les systèmes d’identification biométrique et la catégorisation des personnes physiques, entre autres[5]. Les Etats-Unis, le Royaume-Uni, la Chine, le Canada, l’Inde (…) adaptent eux aussi leurs cadres réglementaires, avec des approches différentes.
Quid de l’impact environnemental ?
Se pose aussi la question de l’impact environnemental de l’IA. Jusqu’à présent, les grands acteurs de l’IA se gardent bien de publier des données. On sait néanmoins que la consommation d’énergie et d’eau nécessaire à la production des équipements (ordinateurs, semiconducteurs…), à la création des modèles IA, à leur entrainement, à leur mise à jour et enfin à leur utilisation est très importante. Et, effectivement, au plus grand est le modèle IA, au plus le modèle incorpore de données et a un plus lourd impact environnemental. On estime qu’une seule requête d’IA générative générerait quatre à cinq fois plus d’émissions de gaz à effet de serre qu’une requête sur un moteur de recherche conventionnel[6]. Alors que Google et Microsoft intègrent de plus en plus d’IA dans leurs moteurs de recherche, services de messagerie, et autres applications, l’extension de l’IA devrait logiquement conduire à une augmentation de leur impact environnemental. Alors que le « cloud » représente d’ores et déjà entre 2.5% et 3.7% des émissions globales de carbone (c’est-à-dire plus que l’aviation)[7], ces enjeux vont donc rapidement gagner en importance.
Le potentiel disruptif de l’IA générative est tel, que les enjeux ESG associés sont nécessairement très importants. Il est encore trop tôt pour prédire précisément comment et dans quelle mesure l’IA générative modifiera nos modes de vie, et si son apport sera globalement positif ou négatif pour nos sociétés et pour l’environnement. Mais d’ores et déjà il apparait nécessaire de la canaliser, pour la mettre au service « de l’humain » et de notre planète. L’investissement durable a un rôle à jouer en soutenant les modèles les plus bénéfiques et en s’abstenant de financer les modèles risqués.
Disclaimer : Toute forme d’investissement comporte des risques. Les performances passées ne préjugent pas des performances futures.
Consultez aussi le corner Placements responsables
[1] Exane, GenAI : How to Use It, 31st May 2023
[2] https://openai.com/research/gpts-are-gpts
[3] Reuters, Amazon scraps secret AI recruiting tool that showed bias against women, 11 October 2018, https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G
[4] https://www.safe.ai/statement-on-ai-risk
[5] https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence
[6] Associated Press, ChatGPT: What is the carbon footprint of generative AI models?, https://www.euronews.com/next/2023/05/24/chatgpt-what-is-the-carbon-footprint-of-generative-ai-models
[7] OECD.AI, Catalogue of Tools & Metrics for Trustworthy AI, https://oecd.ai/en/catalogue/tools/data-carbon-ladder