28-01-2021 · SI Opener

SI Opener: Ondernemingen mogen nadelige gevolgen van AI niet negeren

De recente gebeurtenissen in de Verenigde Staten (VS) hebben bewezen dat de inzet van kunstmatige intelligentie negatieve maatschappelijke gevolgen kan hebben. Mensen met belangstelling voor één bepaald onderwerp, bijvoorbeeld ‘de Amerikaanse verkiezingen zijn gestolen’, krijgen door de algoritmes die social media gebruiken alleen maar informatie te zien die dit bevestigt. Andere feiten en meningen worden niet getoond, wat schadelijke gevolgen kan hebben.

    Auteurs

  • Masja Zandbergen-Albers - Head of Sustainability Integration

    Masja Zandbergen-Albers

    Head of Sustainability Integration

  • Daniëlle Essink-Zuiderwijk - Engagement Specialist

    Daniëlle Essink-Zuiderwijk

    Engagement Specialist

Onderzoek1 van McKinsey heeft aangetoond dat organisaties kunstmatige intelligentie (Artificial Intelligence, AI) gebruiken als hulpmiddel om waarde te creëren. De voorlopers hierin zijn afkomstig uit talloze sectoren en kennen nu al 20% of meer van hun winst voor rente en belastingen (Earnings Before Interest and Taxes, EBIT) toe aan AI.

Hoewel dit op zich positief is voor beleggers, zijn wij er ook van overtuigd dat ondernemingen de risico's van het gebruik van AI moeten aanpakken. Hetzelfde onderzoek concludeert namelijk ook dat een minderheid van de ondernemingen de risico's erkent en nog minder ondernemingen iets doen aan de reductie daarvan. Tijdens onze engagement met ondernemingen over deze onderwerpen horen wij hen vaak zeggen dat toezichthouders scherpere verwachtingen moeten formuleren rond het gebruik van deze technologie. Ondernemingen die klaar zijn voor de toekomst wachten die regelgeving echter niet af, maar nemen vanaf het begin hun verantwoordelijkheid.

Wat zijn dan bijvoorbeeld die maatschappelijke problemen?

Burgerrechten: AI-systemen worden in toenemende mate ingezet op maatschappelijk gevoelige terreinen als onderwijs, werkgelegenheid, huisvesting, kredietscore, beleidsvorming en strafrecht. Het gebruik vindt vaak plaats zonder contextgebonden kennis of geïnformeerde toestemming, waardoor burgerrechten en burgerlijke vrijheden in het geding komen. Een voorbeeld is het recht op privacy, vooral door het groeiende gebruik van technologie voor gezichtsherkenning, die vrijwel niet te weigeren of te omzeilen is.

Werk en automatisering: Automatisering van de werkplek op basis van AI kan de efficiency verbeteren en het aantal repetitieve taken verminderen. Beroepen gaan naar verwachting veranderen, omdat automatisering in bepaalde sectoren banen creëert en in andere sectoren juist medewerkers vervangt. AI kan ook betekenen dat er meer toezicht is op het uitgevoerde werk. Ondernemingen moeten ervoor zorgen dat hun medewerkers zich er ten volle van bewust zijn dat ze worden gevolgd en beoordeeld. Een ander voorbeeld dat specifiek gerelateerd is aan de technologiesector is het werk op de achtergrond van personen die de AI-systemen helpen bouwen, onderhouden en testen. Dit type verborgen, repetitief en vaak niet erkend werk, ook wel ‘click working’ genoemd, wordt per taak vergoed en is vaak onderbetaald.

Veiligheid en verantwoordelijkheid: In veel sectoren wordt AI al volop ingezet voor besluitvorming, bijvoorbeeld in de financiële dienstverlening, ziekenhuizen en het elektriciteitsnet. Door druk vanuit de markt om te innoveren, worden diverse AI-systemen al ingezet voordat hun technische veiligheid is gegarandeerd. Voorbeelden van wat er mis kan gaan zijn de zelfrijdende auto van Uber, waardoor een vrouw om het leven kwam, en een systeem van IBM dat onveilige en onjuiste kankerbehandelingen adviseerde. Omdat ongevallen niet te voorkomen zijn, is overzicht en verantwoordelijkheid essentieel als AI-systemen in onze toekomstige maatschappij doorslaggevend worden in de besluitvorming.

Vooroordelen: Het meest besproken probleem van AI-systemen is dat ze kunnen leiden tot vooroordelen, die vooringenomenheid en maatschappelijke ongelijkheid weerspiegelen en zelfs kunnen versterken. Deze vooroordelen kunnen ontstaan uit data waaruit al aanwezige discriminatie blijkt of die niet representatief is voor onze moderne maatschappij. Zelfs als de onderliggende data vrij is van vooroordelen, kan de inzet van AI-systemen op meerdere manieren leiden tot vooroordelen. Zo bleek uit een rapport van UNESCO2 dat virtuele assistenten, van Alexa van Amazon tot Siri van Apple, discriminatie op grond van geslacht versterken. Volgens dit rapport hebben deze virtuele assistenten standaard een vrouwenstem en zijn ze zodanig geprogrammeerd dat het lijkt alsof vrouwen onderdanig zijn. Op dit moment zijn nog maar 12% van de AI-onderzoekers en slechts 6% van de softwareontwikkelaars vrouwen. Omdat AI-ingenieurs hoofdzakelijk witte mannelijke technici zijn, kan in de ontwikkeling van toepassingen vooringenomenheid sluipen op basis van hun waarden en overtuigingen. Ook kan het gebruik van onjuiste modellen of modellen met onbedoeld discriminatoire kenmerken leiden tot een vooringenomen systeem. Een ander probleem is de ‘zwarte doos’, die het onmogelijk maakt de stappen te volgen die het AI-systeem neemt om tot een bepaalde beslissing te komen. Zo kan onbewust een vooroordeel ontstaan. En tot slot kan er nog een bewust vooroordeel zijn ingebouwd in de algoritmes.

Contentmoderatie in de schijnwerpers

Socialmediaplatforms gebruiken algoritmes voor contentmoderatie en menselijke teams voor de controle van user-generated content op basis van een set vooraf gedefinieerde regels en richtlijnen. Voor contentmoderatie moet je beschikken over sterke psychische veerkracht. Het werk is bovendien vaak niet geschikt om vanuit huis te doen, vanwege de aanwezigheid van gezinsleden in de ruimte waarin wordt gewerkt. Dit betekent dat ondernemingen tijdens Covid-19 de hoeveelheid content die gecontroleerd kon worden aanzienlijk moesten afschalen.

Het belang en de relevantie van contentmoderatie werd duidelijk door de #StopHateForProfit-campagne, die zijn pijlen richtte op de rentabiliteit van kwetsende content en desinformatie op Facebook. De campagne kreeg het voor elkaar dat meer dan 1.000 adverteerders – waaronder grote spelers zoals Target, Unilever en Verizon – in juli 2020 overgingen tot een boycot van advertenties op Facebook. Ook in de aanloop naar de Amerikaanse verkiezingen bleven de schijnwerpers gericht op contentmoderatie. Alle grote socialmediabedrijven stelden toen strengere voorschriften en procedures op.

Beleggingen vragen om engagement

Om alle hierboven genoemde redenen zijn we in 2019 gestart met een engagement rond het thema maatschappelijke impact van kunstmatige intelligentie. Vanuit beleggersperspectief zien we grote kansen in deze trend. Meer diepgaande informatie over kunstmatige intelligentie als beleggingskans is te vinden in het whitepaper dat ons team voor trendbeleggen in december 2016 publiceerde. Wij erkennen echter ook dat AI ongewenste effecten met zich mee kan brengen en vinden dat de ondernemingen waarin wij beleggen die moeten aanpakken. Wij vragen ondernemingen daarom vijf dingen te doen:

  1. Helder beleid ontwikkelen en publiceren voor het gebruik, de aankoop en de ontwikkeling van kunstmatige intelligentie, dat zich specifiek richt op maatschappelijke gevolgen en de aantasting van mensenrechten.

  2. Periodieke impactanalyses uitvoeren op hun AI-activiteiten. De analyse moet betrekking hebben op discriminatoir gedrag, maatschappelijke vooroordelen, verborgen werk en privacykwesties.

  3. Krachtige bepalingen voor de bedrijfsvoering opstellen, gezien de complexiteit van de controle op machine learning. De onderneming moet controleprocessen in stand houden voor het identificeren van incidenten en risico's die verband houden met de onbedoelde consequenties van AI. Bestuurders moeten voldoende opgeleid en ervaren zijn om betekenisvol toezicht op het AI-controlekader uit te oefenen en moeten het AI-beleid en risicorapportages goedkeuren.

  4. Rekening houden met de maatschappelijke gevolgen van AI in de ontwerp- en ontwikkelingsfase. Dit betekent onder andere dat er voldoende kennis van mensenrechten en ethiek aanwezig moet zijn in de ontwikkelteams. Om maatschappelijke vooroordelen tegen te gaan moet de onderneming ook diversiteit en inclusie in de AI-teams bevorderen.

  5. Een multi-stakeholderbenadering kiezen in de ontwikkeling en het gebruik van AI door de onderneming. Er zijn diverse initiatieven en platformen om best practices te delen en te promoten. Wij verwachten ook dat ondernemingen rapporteren over hun lobbyactiviteiten op het gebied van AI-wetgeving.

Veel meer bewustwording noodzakelijk

In de loop van 2020 hebben we gesproken met de meeste ondernemingen in onze engagementgroep. Sommige ondernemingen trokken tijdens de eerste gesprekken het belang van deze kwestie in twijfel of wilden er geen verantwoordelijkheid voor nemen. Bij een aantal van hen zien we deze houding al iets veranderen.

Tijdens het stemseizoen in 2020 werden meer aandeelhoudersvoorstellen ingediend over digitale mensenrechten. Mede onder aanvoering van Robeco hebben verschillende beleggers tijdens de aandeelhoudersvergadering van Alphabet een voorstel ingediend met het verzoek om een mensenrechtencommissie op te richten, bestaande uit onafhankelijke bestuurders met relevante ervaring. Circa 16% van de aandeelhouders stemde voor ons voorstel, een aanzienlijk deel van de minderheidsaandeelhouders.

In de eerste week van november kondigde Alphabet een update aan van zijn Audit Committee Charter, waar de beoordeling van grote risico-exposures rond duurzaamheid en burger- en mensenrechten aan toe is gevoegd. Dat is in lijn met ons verzoek om het bestuurlijk toezicht te formaliseren en is een eerste stap naar een beoordeling van specifieke duurzaamheidskwesties, zoals mensenrechten.

Het gebruik van kunstmatige intelligentie zal alleen maar toenemen en ons privéleven en werk steeds meer gaan beïnvloeden. Aangezien moraal en ethiek niet programmeerbaar zijn, verwachten wij van ondernemingen dat zij hun verantwoordelijkheid nemen. We hebben nog een lange weg te gaan.

Voetnoten

1Global survey: The state of AI in 2020 | McKinsey
2Artificial intelligence and gender equality: key findings of UNESCO’s Global Dialogue, augustus 2020