Hoe combineren we beleggen in AI met een ESG-perspectief?

Door Florent Griffon, Responsible Investment Specialist bij DPAM

Dé belangrijkste marktontwikkeling voor 2023 is – dat kunnen we nu al stellen – de opkomst van artificiële intelligentie (AI) als een belangrijke sector om in te beleggen. De markten zijn uiteraard enthousiast vanwege de gigantische productiviteitswinst die ze verwachten van artificiële intelligentie, en wel in heel veel verschillende sectoren. Maar hoe kunnen we vermijden dat artificiële intelligentie onze economieën, samenlevingen, bedrijven en democratieën volledig door elkaar schudt? Met andere woorden: hoe combineren we beleggen in AI met een ESG-perspectief? Kortom, hoe kunnen we op een verantwoorde en duurzame manier investeren in AI?

Welke ESG-aanpak voor de verantwoordelijke en duurzame belegger?

 

Het toepassingsgebied van generatieve artificiële intelligentie is zoals we al zagen heel breed en nog niet alle gevolgen zijn al bekend. Zeker is dat AI een transversale impact zal hebben op de drie ESG-pijlers. Op het leefmilieu en in de eerste plaats op de klimaat- en energiekwesties. Op de samenleving via kwesties zoals ongelijkheid, onderwijs, opleiding en werkgelegenheid. En ten slotte op het bestuur met belangrijke uitdagingen op het gebied van cyberveiligheid, gegevensbescherming en anonimiteit, corruptiebestrijding en naleving van de wet in het algemeen.

Hoed u voor medeplichtigheid aan misbruik …

 

AI houdt talloze mogelijkheden in, dus is het zaak om het gebruik ervan te reguleren. De toepassingen moeten onze samenlevingen ten goede komen en misbruik of uitspattingen moeten aan banden worden gelegd. Meer dan AI zelf is het de manier waarop we ze gebruiken die van belang is. Duurzame beleggers moeten daarom de volgende vier punten controleren: het doel van de AI-oplossingen die de bedrijven ontwikkelen, maar ook de governance van deze AI-modellen en de good practices waarmee ze worden begeleid. Tot slot moet de belegger ook nagaan wat hun betrokkenheid is bij ESG-controverses en hun conformiteit met de globale duurzaamheidsnormen, met name met het Global Compact van de Verenigde Naties.

Wat het doel van de AI-modellen betreft, raden we bijvoorbeeld aan om niet te beleggen in AI-toepassingen die zijn bedoeld voor bewapening (zoals killer robots …) of die erop gericht zijn de gebruiker te beïnvloeden (deepfakes …), te identificeren (face recognition), zijn emoties te analyseren of zijn toekomstig gedrag te voorspellen. We verwijzen ook naar de Duurzame Ontwikkelingsdoelen van de VN en raden af om te beleggen in AI-modellen die daar tegen indruisen.

De analyse van de governance van AI-oplossingen kunnen we baseren op het OESO-kader voor het classificeren van AI-systemen dat aangeeft welke modellen risico’s inhouden voor de mens of voor de planeet[1]. Dit kader stelt met name de volgende belangrijke vragen: behoudt de gebruiker de vrijheid om af te zien van het AI-model? Zijn de gebruikte gegevens bedrijfseigen, openbaar of privé? Werden ze verzameld in overeenstemming met de wet (GDPR)? Werden ze geanonimiseerd? ‘Gepseudonimiseerd’? Geeft het model de gebruiker voldoende informatie om de resultaten te kunnen begrijpen? In hoeverre is het model onderworpen aan menselijk toezicht? Als de antwoorden op deze vragen negatief zijn, doet de duurzame belegger er waarschijnlijk goed aan om niet te beleggen.

Ook de ‘good practices’ van de bedrijven die deze AI-modellen aanbieden, moeten we onder de loep nemen. Bijvoorbeeld (niet-beperkende lijst): het gebruik van smart datacenters die draaien op hernieuwbare elektriciteit, de integratie van de energie-efficiëntiedoelstelling in de code van het AI-model[2], de toepassing van antidiscriminatiepatches, maatregelen ter bescherming van de anonimiteit van met name medische gegevens, beperkingen op de gegenereerde content om te vermijden dat die schadelijk of gevaarlijk is of in strijd met de wet.

Tot slot raden we af om te beleggen in AI-modellen die onderhevig zijn aan ernstige ESG-controverses of waarvan wordt vermoed dat ze de principes van het Global Compact van de Verenigde Naties schenden. We zullen daarom afzien van beleggingen in AI-modellen die aanzienlijke risico’s inhouden voor de mensenrechten (menselijke waardigheid, vrijheid van meningsuiting, geestelijke en lichamelijke gezondheid van personen, recht op non-discriminatie), de rechten op het werk (welzijn op het werk, kwaliteit van de betrekkingen, opleiding en competenties), het milieu (klimaatrisico’s, water) en ten slotte de strijd tegen corruptie (misdaad en cybercriminaliteit, fraude, bescherming van de rechtsstaat).

… Maar steun enkel verantwoorde en duurzame toepassingen

 

AI kan de samenleving en het milieu echter ook heel wat voordelen opleveren, ook hier in heel wat verschillende domeinen. Ze kan bijvoorbeeld de ontwikkeling van technologische oplossingen vooruithelpen in het domein van energietransitie, van het ontwerp van apparatuur voor energieopwekking, -opslag en -transport tot het beheer van deze infrastructuren. AI kan met name helpen om de transmissie- en distributienetten te beheren, een taak die steeds complexer wordt door de ontwikkeling van intermitterende hernieuwbare energiebronnen. Door het wetenschappelijk onderzoek te versterken, kan AI helpen om nieuwe oplossingen te ontwikkelen. AI zou ook aanzienlijk de betrouwbaarheid van de weersvoorspellingen verbeteren en helpen om de kwetsbaarheid van onze landen voor extreme weersomstandigheden in kaart te brengen. Op die manier zal AI de inspanningen om ons aan te passen aan de klimaatverandering kunnen aansturen. Ook op maatschappelijk vlak biedt AI interessante mogelijkheden: efficiëntere gepersonaliseerde onderwijsoplossingen, betere gezondheidsdiagnostiek, wetenschappelijke doorbraken, beter vermogen om informatie te verzamelen en te verwerken, … Aan concrete voorbeelden geen gebrek. Denk maar aan intelligente gebouwen die hun energieverbruik afstemmen op de weersvoorspellingen en dus anticiperen op de beschikbaarheid van hernieuwbare elektriciteit. Of aan de gepersonaliseerde onderwijs- en opleidingsoplossingen die de tekortkomingen van elke gebruiker identificeren en een adaptieve leeroplossing genereren. Aan AI-auditmodellen die de boekhouding en publicaties van bedrijven beoordelen, het risico op betrokkenheid bij corruptie, fraude en conformiteitskwesties inschatten en hun ESG-profiel vaststellen. Aan AI-oplossingen op maat van de administraties waardoor de productiviteit aanzienlijk toeneemt.

Duurzaam beleggen is dus belangrijk om die ontwikkelingsbedrijven te financieren waarvan de AI-toepassingen goed zijn voor mens en milieu. De mogelijkheden van AI zijn enorm en gevarieerd. Als ze kwaadwillig of zonder toezicht wordt gebruikt, lopen we grote risico’s. Maar als ze goed gebruikt wordt, biedt AI kansen voor onze samenlevingen. Aan de duurzame beleggers, de taak om die beleggingen te identificeren die een positieve en duurzame impact hebben op het milieu, de samenleving en het bestuur.

Disclaimer: Beleggen houdt risico’s in. In het verleden behaalde resultaten bieden geen garantie voor de toekomst.

 

 

 

Lees ook corner Duurzame beleggingen

[1] https://oecd.ai/fr/classification

[2] MIT Technology review, These simple changes can make AI research much more energy efficient, https://www.technologyreview.com/2022/07/06/1055458/ai-research-emissions-energy-efficient/

Dit bericht is geplaatst in Actualiteit, Duurzame beleggingen met de tags , , . Bookmark de permalink.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *