24-02-2023 · Visione

Mitigare i rischi dell’intelligenza artificiale

Tra le aziende cresce la consapevolezza dei rischi che l’intelligenza artificiale (AI) può comportare per la società, ma la strada da fare è ancora lunga. È ciò che emerge da tre anni di engagement del team Active Ownership di Robeco con dieci società all’avanguardia nel settore tecnologico.

    Relatori

  • Daniëlle Essink-Zuiderwijk - Engagement Specialist

    Daniëlle Essink-Zuiderwijk

    Engagement Specialist

  • Claire Ahlborn - Engagement Specialist

    Claire Ahlborn

    Engagement Specialist

L’Intelligenza Artificiale offre vantaggi notevoli: dal semplice apprendimento automatico che capisce cosa stai per digitare ad algoritmi molto più complessi, in grado di anticipare le esigenze sanitarie e di determinare l’evoluzione dei cambiamenti climatici. Già ampiamente utilizzata in tutto lo spettro tecnologico, spesso interviene senza che l’utente ne abbia alcuna percezione.

Allo stesso tempo, però, l’AI rappresenta anche una grave minaccia in termini di privacy e di sicurezza dei dati, senza contare il rischio che il machine learning sia fonte di tracciamenti indesiderati, profilazione e discriminazione razziale. Tra l’altro, è difficile sapere come stiano davvero le cose, vista la poca trasparenza sulle attività delle singole aziende in materia di AI.

Questa mancanza di informazioni è uno dei motivi per cui il team Active Ownership è riuscito a chiudere con successo solo quattro dei cinque programmi di engagement tra il 2019 e il 2022. Gli altri cinque casi sono stati trasferiti agli specialisti di SDG, per coinvolgere le aziende in ulteriori attività di engagement in tema di impatto sociale.

Allineamento delle pratiche

“Attraverso l’engagement, abbiamo imparato che le aziende stanno gradualmente allineando le rispettive pratiche interne ai principi di AI responsabile,” sostiene la specialista di engagement Danielle Essink. “Molte imprese hanno formalizzato principi di AI che affrontano temi come inclusione, imparzialità e trasparenza.”

“Inoltre, le società perseguono sempre più spesso un approccio collaborativo, contribuendo attivamente a iniziative finalizzate alla promozione di una governance e di best practice responsabili. Iniziative del genere sono fondamentali per garantire l’affidabilità dell’AI nel nostro settore.”

“Tuttavia, i principi etici non bastano ad assicurare che l’AI si sviluppi e si diffonda in modo responsabile. Per implementarli efficacemente, infatti, alle aziende servono solidi meccanismi di governance.”

Mancanza di comunicazione

Tra i principali ostacoli figurano la mancanza di comunicazione su come le aziende stanno effettivamente affrontando la questione e, soprattutto, sulla loro volontà di impegnarsi. Gran parte della tecnologia AI e delle sue modalità di implementazione sulle diverse piattaforme rimane avvolta dal mistero.

“Durante le nostre attività di engagement, ci siamo resi conto che la trasparenza su governance e implementazione è limitata: le informative di gran parte delle imprese non chiariscono come determinati principi vengano messi in pratica, né quali sistemi di check and balance esistano”, osserva la specialista di engagement Claire Ahlborn, tra i partecipanti al programma.

“Il confronto con le società ci ha chiarito i dettagli dell’implementazione e ci ha reso fiduciosi circa la possibilità di raggiungere alcuni degli obiettivi prefissati. I risultati dell’engagement su questo tema, quindi, sono strettamente legati alla volontà delle singole imprese di avviare dialoghi costruttivi.”

L’investimento quantitativo di nuova generazione

Con il progresso della tecnologia, crescono anche le opportunità per gli investitori quantitativi. Incorporando una maggiore quantità di dati e facendo ricorso a tecniche di modellizzazione avanzate, possiamo acquisire conoscenze più approfondite e ottimizzare il processo decisionale.

Previsioni di forte crescita

Stando all’International Data Corporation’s Worldwide Artificial Intelligence Software Forecast 2022, il mercato AI è destinato a far registrare una crescita annuale composta del 18,6% dal 2022 al 2026.

Eppure, secondo Essink, i possibili benefici comportano rischi che non sono ancora stati del tutto esplorati né compresi. Per sfruttare al massimo il potenziale dell’AI, le aziende devono saper gestire i rischi associati allo sviluppo e all’uso di questa tecnologia, anche in tema di diritti umani.

“Considerata la velocità a cui si sta sviluppando, non c’è dubbio che nei decenni a venire l’AI trasformerà l’economia e la società in modo per noi inimmaginabile”, prosegue Essink.

Cambiamenti positivi

“Una crescita simile offre all’AI l’opportunità di contribuire a cambiamenti decisamente positivi, identificando modelli nei dati ambientali oppure migliorando l’analisi delle informazioni sulla salute.”

“Al tempo stesso, l’intelligenza artificiale potrebbe causare nuovi problemi o aggravare quelli già esistenti, se le aziende non si renderanno conto dei rischi associati alle tecnologie coinvolte. Per esempio, il ricorso ad algoritmi di profilazione può avere effetti discriminatori: basta pensare agli algoritmi di rating del credito che sfavoriscono persone appartenenti a determinati gruppi etnici o residenti in zone specifiche.”

“Analogamente, l’AI può essere usata per la sorveglianza nei luoghi pubblici o sul posto di lavoro, mettendo a rischio il diritto alla privacy. Serve quindi una governance responsabile in materia, per garantire che i sistemi rispettino valori e norme etiche, nonché i sempre più frequenti regolamenti in materia di AI.”

Regolamentazione imminente

Ci sono già stati interventi normativi e proposte politiche da parte di governi, comitati etici, organizzazioni no-profit, mondo accademico e UE. Nell’aprile del 2021, la Commissione Europea ha varato la Legge sull’intelligenza artificiale, che stabilisce requisiti e obblighi precisi riguardo all’uso specifico dell’AI da parte di sviluppatori, fornitori e utenti.

La proposta identifica quattro categorie di classificazione in base al livello di rischio. In cima troviamo i sistemi AI cosiddetti ad alto rischio (come quelli per lo screening dei candidati) che dovranno sottostare a rigorosi obblighi di gestione ottimizzata del rischio e di supervisione umana. I sistemi AI a basso rischio, invece, resteranno per lo più non regolamentati.

“La crescente pressione legislativa in materia di AI potrebbe esporre a un grave rischio normativo le aziende che ancora non sono pronte a conformarsi a questi maggiori obblighi,” sostiene Ahlborn.