24-02-2023 · Vision

Atténuer les risques liés à l'intelligence artificielle

Les entreprises sont de plus en plus conscientes des risques que l'intelligence artificielle (IA) peut représenter pour la société, mais il reste encore beaucoup à faire. C'est la conclusion à laquelle est parvenue l'équipe Actionnariat actif de Robeco après trois années de dialogue actionnarial avec dix entreprises à la pointe de la technologie.

    Auteurs

  • Daniëlle Essink-Zuiderwijk - Engagement Specialist

    Daniëlle Essink-Zuiderwijk

    Engagement Specialist

  • Claire Ahlborn - Engagement Specialist

    Claire Ahlborn

    Engagement Specialist

L'IA peut offrir des avantages considérables, qu'il s'agisse du simple machine learning qui semble savoir ce qu'on veut taper sur son clavier, ou d'algorithmes plus complexes capables de prédire les besoins en matière de santé et de détecter des schémas récurrents dans le changement climatique. Aujourd'hui, elle est couramment utilisée dans tout le secteur de la technologie et elle s'invite souvent sans même que l'utilisateur le sache.

Mais elle fait également peser de lourdes menaces sur la vie privée et la gestion des données, ou encore en matière de dérive du machine learning (surveillance non désirée, profilage racial ou discrimination). Et il est difficile de savoir où les choses en sont parce que les entreprises ne communiquent guère d'informations au sujet de leurs activités IA.

Ce manque d'informations est l'une des raisons pour lesquelles les efforts de l'équipe Actionnariat actif ont abouti uniquement pour quatre des cinq entreprises figurant à son programme de dialogue actionnarial 2019-2022. Cinq autres cas ont été transférés au pôle ODD de l'équipe afin qu'elle poursuive le dialogue actionnarial avec ces entreprises concernant leur impact sociétal.

Harmonisation des pratiques

« Grâce à notre dialogue actionnarial, nous avons appris que les entreprises sont en train d'harmoniser progressivement leurs pratiques internes sur les principes de l'IA responsable », fait observer Danielle Essink, spécialiste du dialogue actionnarial. « De nombreuses entreprises ont formalisé des principes d'IA qui abordent des sujets comme l'inclusion, l'équité et la transparence.

Par ailleurs, les entreprises adoptent de plus en plus une approche collaborative en contribuant activement aux initiatives qui visent à faire valoir la gouvernance responsable et les bonnes pratiques. Les initiatives de ce genre jouent un rôle déterminant pour garantir une IA digne de confiance dans l'ensemble du secteur.

Cela étant, les principes éthiques ne constituent pas à eux seuls une garantie que l'IA sera développée et déployée de façon responsable. Les entreprises doivent se doter de mécanismes de gouvernance solides pour mettre en œuvre efficacement leurs principes. »

Manque d'informations

Un des principaux obstacles est le manque d'informations sur les dispositions que prennent réellement les entreprises pour répondre aux inquiétudes, mais aussi leur réticence à communiquer à ce sujet. L'IA en tant que technologie et l'usage qui est en fait sur les différentes plateformes restent encore entourés de secret.

« Dans le cadre de notre dialogue actionnarial, nous avons observé un manque flagrant de transparence en matière de gouvernance et de mise en œuvre, car la plupart des informations publiées par les entreprises manquaient de clarté quant à la mise en pratique de ces principes dans la vie réelle et quant aux mécanismes d'équilibre des pouvoirs », explique Claire Ahlborn, spécialiste du dialogue actionnarial, qui a elle aussi participé au programme.

« En discutant avec les entreprises, nous avons appris les spécificités de la mise en œuvre, ce qui nous a ensuite donné la confiance nécessaire pour valider certains objectifs. Dans ce thème, les résultats obtenus au travers du dialogue actionnarial sont donc fortement corrélés à la volonté de l'entreprise de communiquer de façon constructive. »

Next-Generation Quant

À mesure que la technologie progresse, les opportunités pour les investisseurs quantitatifs se multiplient. L’exploitation de volumes plus importants de données et de techniques de modélisation avancées nous permet d’approfondir nos analyses et d’améliorer la prise de décision.

Une croissance phénoménale en vue

Selon le rapport Worldwide Artificial Intelligence Software Forecast 2022 de l'International Data Corporation, le marché mondial de l'IA devrait enregistrer un taux de croissance annuelle composé de 18,6 % rien qu'entre 2022 et 2026.

Pourtant, Danielle Essink fait observer que les avantages potentiels de l'IA s'accompagnent de risques qui n'ont pas encore été pleinement étudiés, ni même totalement compris. Afin d'exploiter tout le potentiel de l'IA, les entreprises doivent gérer les risques que soulèvent le développement et l'utilisation de cette technologie, y compris les risques liés aux droits de l'homme.

« Compte tenu de la vitesse à laquelle l'IA se développe, il ne fait aucun doute qu'au cours des prochaines décennies, cette technologie transformera notre économie et notre société d'une manière que nous ne pouvons pas imaginer », affirme Danielle Essink.

Des changements favorables

« Avec un taux de croissance pareil, l'IA pourra massivement contribuer à des changements favorables, comme la détection de schémas récurrents dans les données environnementales ou l'amélioration de l'analyse des données médicales.

Dans le même temps, l'IA pourrait causer de nouveaux problèmes ou aggraver les problèmes existants si les entreprises ne possèdent pas une bonne compréhension des risques associés à ces technologies. Par exemple, l'utilisation d'algorithmes d'IA pour le profilage peut avoir des effets discriminatoires, comme des algorithmes de notation de crédit qui défavorisent les personnes ayant certaines origines ethniques ou vivant dans certaines régions.

L'IA pourrait également être utilisée pour la surveillance dans les espaces publics, mais aussi sur le lieu de travail, ce qui mettrait en danger le droit au respect de la vie privée. De toute évidence, la nécessité d'une bonne gouvernance pour les systèmes d'IA se fait de plus en plus sentir afin de garantir que ces systèmes se conforment aux valeurs éthiques, aux normes et au nombre croissant de règlements en matière d'IA. »

La réglementation prochainement adoptée

Des gouvernements, des comités d'éthique, des organisations à but non lucratif, des universitaires et l'UE ont déjà proposé des mesures réglementaires et des politiques. En avril 2021, la Commission européenne a publié une proposition de législation sur l'IA. Cette législation définit clairement les exigences et obligations liées aux utilisations spécifiques de l'IA que doivent respecter les développeurs, les utilisateurs et ceux chargés de son déploiement.

La proposition distingue quatre catégories réglementaires en fonction du niveau de risque. À une extrême, les systèmes d'IA identifiés comme étant à haut risque, tels que les outils d'analyse de CV qui classent les candidats à un poste, seront soumis à des obligations sévères, notamment des processus renforcés de gestion des risques et une surveillance humaine. À l'autre extrême, les systèmes d'IA présentant des risques limités resteront, dans une large mesure, non réglementés.

« Cette pression juridique croissante autour de l'IA pourrait poser de sérieux risques réglementaires pour les entreprises qui ne se sont pas bien préparées à respecter ces obligations dont le nombre ne cesse d'augmenter », déclare Ahlborn.