italyit
Speciale SI: Le imprese non dovrebbero ignorare le sfide dell’intelligenza artificiale

Speciale SI: Le imprese non dovrebbero ignorare le sfide dell’intelligenza artificiale

28-01-2021 | Visione
I recenti avvenimenti negli Stati Uniti hanno dimostrato che l’uso dell’intelligenza artificiale può essere causa di problemi sociali. Gli algoritmi usati dai social media, infatti, fanno sì che le persone interessate ad un determinato argomento vedano solo informazioni che confermano questa ipotesi e non essere esposte ad altri fatti e opinioni, il che può essere dannoso. Un esempio è stato la possibilità di frodi elettorali durante le presidenziali statunitensi.
  • Masja Zandbergen - Albers
    Masja
    Zandbergen - Albers
    Head of sustainability Integration
  • Daniëlle Essink
    Daniëlle
    Essink
    Engagement Specialist

In breve

  • L’intelligenza artificiale rappresenta il 20% dell’EBIT in alcuni settori
  • Le possibili controindicazioni comprendono minacce ai diritti civili, incidenti e distorsioni (“bias”)
  • Le imprese devono assumersi la responsabilità di questi problemi  

Una ricerca di McKinsey1 dimostra che molte organizzazioni utilizzano l’intelligenza artificiale (IA) quale strumento per generare valore. Le imprese che ne fanno un uso maggiore provengono da una varietà di settori che già attribuiscono all’IA il 20% o più degli utili al lordo di interessi e imposte (EBIT) delle loro organizzazioni. 

Anche se questo è un segnale favorevole per gli investitori, siamo fermamente convinti che le imprese dovrebbero anche affrontare i rischi legati all’uso dell’IA. Lo stesso studio rileva che solo una minoranza di aziende è consapevole di tali rischi, e che un numero ancora minore si adopera per ridurli. In effetti, durante il nostro engagement con le imprese su questi temi, abbiamo spesso sentito dire che le autorità di regolamentazione dovrebbero stabilire linee guida più chiare in merito all’uso di tale tecnologia. Le aziende pronte ad affrontare il futuro non dovrebbero aspettare la regolamentazione, ma assumersi la responsabilità fin da subito.

Scopri gli ultimi approfondimenti
Scopri gli ultimi approfondimenti
Abbonati

Quali sono alcuni dei problemi sociali posti dall’IA?

Diritti civili: i sistemi di IA sono sempre più utilizzati in aree socialmente sensibili come l’istruzione, l’occupazione, l’edilizia abitativa, il credit scoring, l’attività di polizia e la giustizia penale. Spesso, questi sistemi vengono impiegati senza conoscenza del contesto o la prestazione di un consenso informato, e quindi costituiscono una minaccia per i diritti e le libertà civili. Ad esempio, il diritto alla privacy è a rischio, soprattutto con il crescente utilizzo delle tecnologie di riconoscimento facciale, dove è quasi impossibile sottrarsi alla loro applicazione.

Lavoro e automazione: l’automazione basata sull’IA nei luoghi di lavoro può migliorare l’efficienza e ridurre la quantità di mansioni ripetitive. Le occupazioni sono destinate a cambiare poiché l’automazione crea posti di lavoro in alcuni settori e sostituisce i lavoratori in altri. L’IA può comportare anche una maggiore sorveglianza sul lavoro svolto; pertanto, le aziende devono assicurare che i loro dipendenti siano pienamente consapevoli di come vengono monitorati e valutati. Un altro esempio specifico del settore tecnologico è il lavoro nascosto delle persone che contribuiscono a creare, mantenere e testare sistemi di IA.  Questo tipo di lavoro invisibile, ripetitivo e spesso non riconosciuto – chiamato anche “click working” – è remunerato a cottimo ed è spesso sottopagato. 

Sicurezza e responsabilità: l’IA è già utilizzata per prendere decisioni in molti settori, tra cui i servizi finanziari, gli ospedali e le reti energetiche. A causa delle pressioni di mercato, diversi sistemi di IA sono stati utilizzati prima che ne fosse assicurata la sicurezza tecnica; come esempio dei problemi che possono sorgere, un’auto a guida autonoma di Uber ha causato la morte di una donna e un sistema IBM ha raccomandato a pazienti trattamenti oncologici pericolosi e inadatti. Data la possibilità che si verifichino incidenti, se vogliamo che i sistemi di IA prendano importanti decisioni all’interno della società è essenziale che qualcuno se ne assuma la responsabilità. 

Distorsioni: la questione più comunemente discussa nei sistemi di IA è che sono inclini a distorsioni che possono rispecchiare e persino rafforzare i pregiudizi e le disuguaglianze sociali. Queste distorsioni potrebbero derivare da dati che riflettono le discriminazioni esistenti o che non sono rappresentativi della società moderna. Anche se i dati sottostanti sono privi di distorsioni, il loro utilizzo potrebbe crearne di nuove in vari modi. Un rapporto pubblicato dall’UNESCOha rivelato che gli assistenti vocali basati sull’IA, da Alexa di Amazon a Siri di Apple, rafforzano i pregiudizi di genere. Secondo il rapporto, questi assistenti vocali hanno voci femminili di default, e sono programmati in modo da suggerire che le donne sono sottomesse. Attualmente le donne costituiscono solo il 12% dei ricercatori di IA e solo il 6% degli sviluppatori di software. Dal momento che gli ingegneri di IA sono prevalentemente maschi bianchi, nella progettazione delle applicazioni potrebbero manifestarsi distorsioni legate ai loro valori e alle loro convinzioni. Inoltre, l’utilizzo di modelli sbagliati, o di modelli con caratteristiche inavvertitamente discriminatorie, potrebbe condurre a un sistema distorto. Un’altra questione connessa alle distorsioni è il problema della “scatola nera”, per cui è impossibile comprendere la procedura seguita dal sistema di IA per giungere a determinate decisioni; ne consegue che le distorsioni possono manifestarsi anche inconsciamente. Infine, negli algoritmi si potrebbero incorporare distorsioni intenzionali.

Moderazione dei contenuti sotto i riflettori

Le piattaforme di social media utilizzano algoritmi di moderazione dei contenuti e team di valutazione per monitorare i contributi generati dagli utenti, sulla base di una serie di regole e linee guida prestabilite. Il lavoro di moderazione dei contenuti richiede una forte resistenza psicologica; spesso non è idoneo a essere svolto da casa con i membri della famiglia nella stessa stanza. Di conseguenza, durante la pandemia di Covid-19 le aziende hanno dovuto ridimensionare la quantità di contenuti che potevano essere controllati. 

La rilevanza e l’importanza della moderazione dei contenuti è emersa in tutta chiarezza dalla campagna #StopHateForProfit, che ha messo in evidenza la redditività dei discorsi nocivi e della disinformazione su Facebook. La campagna ha indotto più di 1.000 inserzionisti – tra cui grandi imprese come Target, Unilever e Verizon – a boicottare le pubblicità su Facebook nel luglio 2020. L’attenzione alla moderazione dei contenuti è continuata anche durante la campagna elettorale statunitense, con l’adozione di linee guida e procedure più rigorose da parte di tutti i principali social media. 

L’investimento deve accompagnarsi all’engagement

Per i motivi sopra citati, nel 2019 abbiamo avviato un tema di engagement sull’impatto sociale dell’intelligenza artificiale. In un’ottica di investimento, scorgiamo grandi opportunità in questo trend. Informazioni più approfondite sull’IA quale opportunità di investimento si trovano nel white paper3 pubblicato dal nostro team di trends investing nel dicembre 2016. Tuttavia, siamo anche consapevoli che l’IA può essere accompagnata da effetti indesiderati che le nostre società partecipate dovrebbero affrontare. Alle aziende chiediamo di fare cinque cose:

  1. Elaborare e pubblicare politiche chiare per l’uso, l’approvvigionamento e lo sviluppo dell’intelligenza artificiale, dove si affrontino esplicitamente le implicazioni sociali e i diritti umani. 
  2. Eseguire valutazioni d’impatto periodiche sulle loro attività di IA. La valutazione dovrebbe riguardare gli esiti discriminatori, i pregiudizi sociali, il lavoro invisibile e i problemi di privacy.
  3. Mettere in atto rigorose disposizioni di governance, date le complessità insite nel controllo dei sistemi di machine learning. L’azienda dovrebbe mantenere processi di controllo che identifichino gli incidenti e i rischi associati alle conseguenze indesiderate dell’IA. Il consiglio di amministrazione dovrebbe essere sufficientemente formato ed esperto per esercitare una supervisione significativa sul quadro di controllo dell’IA e per approvare le politiche di IA e i rapporti sui rischi.
  4. Prendere in considerazione le questioni sociali dell’IA nella fase di progettazione e sviluppo. Ciò significa, tra l’altro, che i team di sviluppo dovrebbero avere una sufficiente preparazione in materia di diritti umani ed etica. Al fine di mitigare le distorsioni sociali, l’azienda dovrebbe anche promuovere la diversità e l’inclusione nei propri team di IA.
  5. Adottare un approccio multi-stakeholder nello sviluppo e nell’uso dell’IA da parte dell’azienda. Esistono diverse iniziative e piattaforme per condividere e promuovere le best practice in questo campo. Ci aspettiamo inoltre che le aziende riferiscano sulle loro attività di lobby relative alla legislazione in materia di IA.
  6.  

È necessaria una maggiore consapevolezza

Nel corso del 2020, abbiamo parlato con la maggior parte delle imprese coinvolte nel nostro programma di engagement. Nelle nostre conversazioni iniziali, alcune aziende hanno messo in discussione la rilevanza della questione o hanno rifiutato di assumersene la responsabilità. Alcune di loro sembrano già aver cambiato atteggiamento.

La stagione elettorale del 2020 è stata caratterizzata da un numero crescente di proposte degli azionisti incentrate sui diritti umani digitali. Robeco è stato co-promotore di una proposta degli azionisti durante l’assemblea generale di Alphabet, nella quale si chiedeva la costituzione di un comitato di controllo dei rischi per i diritti umani, composto da amministratori indipendenti con esperienza in materia. La nostra delibera ha ricevuto il voto favorevole del 16% degli azionisti, una quota sostanziale dei voti espressi dagli interessi di minoranza. 

Nella prima settimana di novembre, Alphabet ha annunciato un aggiornamento della sua Audit Committee Charter, che adesso prevede la revisione delle principali esposizioni al rischio nel campo della sostenibilità e dei diritti civili e umani. Ciò è in linea con la nostra richiesta di formalizzare la supervisione esercitata dal consiglio di amministrazione ed è un primo passo verso l’attuazione di tale supervisione su questioni specifiche relative alla sostenibilità, come i diritti umani. 

L’uso dell’intelligenza artificiale è destinato ad aumentare e ad influenzare in modo considerevole la nostra vita e il nostro lavoro in futuro. Dato che la morale e l’etica non si prestano ad essere programmate, riteniamo che le imprese debbano assumersi le proprie responsabilità. C’è ancora molta strada da fare.

2 Artificial intelligence and gender equality: key findings of UNESCO’s Global Dialogue, agosto 2020
SI Opener
SI Opener
Vedere per credere.
Leggi tutti gli articoli
Logo

Disclaimer

Confermo di essere un cliente professionale

Le informazioni e le opinioni contenute in questa sezione del Sito cui sta accedendo sono destinate esclusivamente a Clienti Professionali come definiti dal Regolamento Consob n. 16190 del 29 ottobre 2007 (articolo 26 e Allegato 3) e dalla Direttiva CE n. 2004/39 (Allegato II), e sono concepite ad uso esclusivo di tali categorie di soggetti. Ne è vietata la divulgazione, anche solo parziale.

Al fine di accedere a tale sezione riservata, si prega di confermare di essere un  Cliente Professionale, declinando Robeco qualsivoglia responsabilità in caso di accesso effettuato da una persona che non sia un cliente professionale.

In ogni caso, le informazioni e le opinioni ivi contenute non costituiscono un'offerta o una sollecitazione all'investimento e non costituiscono una raccomandazione o consiglio, anche di carattere fiscale, o un'offerta, finalizzate all'investimento, e non devono in alcun caso essere interpretate come tali.

Prima di  ogni investimento, per una descrizione dettagliata delle caratteristiche, dei rischi e degli oneri connessi, si raccomanda di esaminare il Prospetto, i KIIDs delle classi autorizzate per la commercializzazione in Italia, la relazione annuale o semestrale e lo Statuto, disponibili sul presente Sito o presso i collocatori.
L’investimento in prodotti finanziari è soggetto a fluttuazioni, con conseguente variazione al rialzo o al ribasso dei prezzi, ed è possibile che non si riesca a recuperare l'importo originariamente investito.

Rifiuto