24-02-2023 · Visie

De risico's van kunstmatige intelligentie beperken

Ondernemingen worden zich steeds meer bewust van de risico's van kunstmatige intelligentie (AI) voor de samenleving, maar er moet nog veel gebeuren. Dat was de uitkomst van een drie jaar lange engagement van Robeco's Active Ownership-team met tien ondernemingen die vooroplopen in deze technologie.

    Auteurs

  • Daniëlle Essink-Zuiderwijk - Engagement Specialist

    Daniëlle Essink-Zuiderwijk

    Engagement Specialist

  • Claire Ahlborn - Engagement Specialist

    Claire Ahlborn

    Engagement Specialist

AI kan aanzienlijke voordelen bieden – van een eenvoudige vorm van machine learning die lijkt te weten wat je wilde typen, tot complexere algoritmen die de behoeften van de gezondheidszorg voorspellen en patronen in klimaatverandering detecteren. Het wordt nu routinematig toegepast in het hele technologische spectrum en treedt vaak in werking zonder dat de gebruiker zich daar bewust van is.

Het vormt echter ook een grote bedreiging voor privacy en datamanagement. Bovendien kan machinaal ‘leren’ leiden tot ongewenste surveillance, etnisch profileren of discriminatie. En het is moeilijk om achter de werkelijke stand van zaken te komen door een gebrek aan transparantie van ondernemingen over hun AI-activiteiten.

Dit gebrek aan informatie was een van de redenen waarom het Active Ownership-team slechts vier van de vijf dialogen succesvol kon afsluiten in het engagementprogramma dat liep van 2019 tot 2022. De andere vijf ondernemingen zijn overgeheveld naar het SDG Engagement-thema van het team om de dialoog over hun sociale impact voort te zetten.

Praktijken afstemmen

“Tijdens onze engagement hebben we geleerd dat ondernemingen hun interne praktijken geleidelijk afstemmen op de principes van verantwoord AI-gebruik”, zegt engagementspecialist Danielle Essink. “Veel ondernemingen hebben AI-principes geformaliseerd die betrekking hebben op onderwerpen als inclusie, eerlijkheid en transparantie.”

“Daarnaast kiezen ondernemingen steeds vaker voor een gezamenlijke aanpak door actief bij te dragen aan initiatieven die tot doel hebben verantwoord beheer en best practices te stimuleren. Dit soort initiatieven speelt een doorslaggevende rol bij het garanderen van betrouwbaar AI-gebruik in de hele sector.”

“Ethische principes alleen garanderen echter geen verantwoorde ontwikkeling en toepassing van AI. Ondernemingen hebben ook robuuste governancemechanismen nodig om hun principes effectief toe te passen.”

Gebrek aan transparantie

Een groot struikelblok is het gebrek aan transparantie over wat bedrijven feitelijk doen om de problemen aan te pakken, en over hun bereidheid om überhaupt in dialoog te gaan. Er wordt nog altijd heel geheimzinnig gedaan over veel van de AI-technologieën en hoe die worden toegepast op verschillende platforms.

“Tijdens onze engagement hebben we geconstateerd dat de transparantie rond AI-governance en -implementatie laag blijft, doordat de meeste ondernemingen in hun rapportages niet duidelijk aangeven hoe zulke principes worden omgezet in de praktijk en welke controles er zijn”, zegt engagementspecialist Claire Ahlborn, die ook meewerkte aan het programma.

“De ondernemingen hebben de implementatie nader toegelicht tijdens de gesprekken, wat ons het vertrouwen gaf om sommige doelstellingen met succes af te sluiten. De resultaten van dit engagementthema zijn dus sterk gecorreleerd met de bereidheid van ondernemingen om een constructieve dialoog aan te gaan.”

Nieuwe generatie quantoplossingen

De technologische vooruitgang levert ook nieuwe mogelijkheden op voor kwantitatieve beleggers. Het gebruik van meer data en de inzet van geavanceerde modelleringstechnieken stellen ons in staat om tot betere inzichten te komen en onze besluitvorming te verbeteren.

Enorme groei voorspeld

Volgens de Worldwide Artificial Intelligence Software Forecast 2022 van de International Data Corporation (IDC) zal de wereldwijde AI-markt alleen al tussen 2022 en 2026 een samengestelde jaarlijkse groei van 18,6% laten zien.

De potentiële voordelen gaan echter gepaard met risico's die nog niet volledig zijn verkend, laat staan begrepen, aldus Essink. Om het volledige potentieel van AI te bereiken moeten ondernemingen ook de risico's beheersen die gepaard gaan met de ontwikkeling en het gebruik van de technologie, waaronder risico's op het gebied van mensenrechten.

“Gezien de snelheid waarmee AI wordt ontwikkeld, lijdt het geen twijfel dat deze technologie onze economie en samenleving de komende decennia gaat veranderen op een manier die we ons niet kunnen voorstellen”, zegt Essink.

Positieve verandering

“Dit soort groei biedt enorme mogelijkheden voor AI om bij te dragen aan positieve veranderingen, zoals het opsporen van patronen in milieudata of het verbeteren van de analyse van gezondheidsinformatie.”

“Tegelijkertijd kan AI ook nieuwe problemen veroorzaken of bestaande problemen verergeren als bedrijven niet voldoende inzicht hebben in de risico's van deze technologieën. Zo kan het gebruik van AI-algoritmen voor profilering discriminerende effecten hebben, zoals kredietbeoordelingsalgoritmen die mensen met een bepaalde etnische achtergrond of mensen in bepaalde gebieden benadelen.”

“Ook kan AI worden gebruikt voor surveillance – bijvoorbeeld in openbare ruimten of op de werkplek – waardoor het recht op privacy in het gedrang komt. Hieruit blijkt een groeiende behoefte aan verantwoord beheer van AI-systemen om ervoor te zorgen dat dergelijke systemen voldoen aan ethische waarden, normen en het toenemende aantal AI-reguleringen.”

Ophanden zijnde regelgeving

Regeringen, ethische commissies, non-profitorganisaties, academici en de EU hebben al dergelijke regelgevende maatregelen en beleidsvoorstellen gelanceerd. Zo kwam de Europese Commissie in april 2021 met de AI-wet. Daarin worden duidelijke eisen en verplichtingen met betrekking tot de specifieke AI-toepassingen vastgesteld voor ontwikkelaars, toepassers en gebruikers.

Het voorstel identificeert vier regelgevingscategorieën op basis van het risiconiveau. Voor AI-systemen die als risicovol zijn aangemerkt, zoals instrumenten voor het scannen van cv's en het rangschikken van sollicitanten, gaan strenge verplichtingen gelden, waaronder versterkte risicobeheerprocessen en menselijk toezicht. AI-systemen met een beperkt risico zullen grotendeels ongereguleerd blijven.

“Deze toenemende wetgevingsdruk rond AI kan ernstige regelgevingsrisico's opleveren voor ondernemingen die niet goed zijn voorbereid om te voldoen aan de toenemende verplichtingen,” zegt Ahlborn.