28-01-2021 · SI Opener

SI Opener: Las empresas no deben pasar por alto la parte problemática de la IA

Los recientes acontecimientos vividos en Estados Unidos han puesto de manifiesto que el empleo de la inteligencia artificial puede traer consigo importantes problemas sociales. Las personas que estén interesadas en un tema, como “fraude electoral en Estados Unidos”, solo verán información que confirme su postura, debido a los algoritmos utilizados por las empresas de redes sociales. No estarán expuestas a otros hechos y opiniones, y esto puede resultar perjudicial.

    Autores/Autoras

  • Masja Zandbergen-Albers - Head of Sustainability Integration

    Masja Zandbergen-Albers

    Head of Sustainability Integration

  • Daniëlle Essink-Zuiderwijk - Engagement Specialist

    Daniëlle Essink-Zuiderwijk

    Engagement Specialist

En un estudio1 realizado por McKinsey, se muestra que diversas organizaciones están utilizando la IA como herramienta para generar valor. Las entidades que más la emplean pertenecen a muy diversos sectores, y hoy por hoy ya atribuyen el 20% o más de sus ganancias antes de intereses e impuestos a la IA.

Aunque se trata de un dato positivo para los inversores, creemos firmemente que las empresas también deben hacer frente a los riesgos que conlleva la utilización de la IA. El mismo estudio revela también que solamente una minoría de empresas es consciente de estos riesgos, y que son todavía menos las que trabajan para reducirlos. De hecho, durante nuestra interacción con distintas empresas en relación con estos temas, a menudo les oímos decir que los organismos reguladores deberían establecer pautas más claras acerca del uso de esta tecnología. Las empresas mejor preparadas para el futuro no deben esperar a que llegue la regulación, sino asumir su responsabilidad desde el principio.

¿Cuáles son algunos de sus problemas sociales?

Derechos civiles: Los sistemas de IA se utilizan cada vez más en espacios socialmente sensibles tales como la educación, el empleo, la vivienda, la calificación crediticia, la vigilancia policial y el sistema de justicia penal. A menudo, se despliegan sin conocimiento contextual o consentimiento informado, de manera que suponen una amenaza para los derechos y libertades civiles. Por ejemplo, el derecho a la intimidad corre peligro, sobre todo con la proliferación de las tecnologías de reconocimiento facial, ya que resulta casi imposible declinar su aplicación.

Mano de obra y automatización: La automatización de procesos de trabajo basada en IA ofrece el potencial de mejorar la eficiencia y reducir la cantidad de tareas repetitivas. Se espera que las profesiones cambien, ya que la automatización genera empleos en algunas industrias y reemplaza a los trabajadores de otras. La IA también puede dar lugar a una mayor vigilancia de nuestro trabajo, lo que significa que las empresas deben asegurarse de que sus trabajadores son plenamente conscientes de cómo se les rastrea y evalúa. Otro ejemplo relacionado específicamente con el sector tecnológico es la opaca labor de las personas que ayudan a construir, mantener y probar sistemas de IA. Este tipo de trabajo repetitivo, poco visible y a menudo no reconocido —también llamado “click working”— se paga por tarea realizada, y suele estar mal remunerado.

Seguridad y responsabilidad: La IA ya tiene a su cargo la toma de decisiones en muchos sectores, como servicios financieros, hospitales y redes de energía. Debido a la presión del mercado por la innovación, se han desplegado sistemas de IA antes incluso de verificar su seguridad técnica. El vehículo sin conductor de Uber, que mató a una mujer, o el sistema de IBM que recomendaba tratamientos poco seguros e incorrectos para casos de cáncer son claros ejemplos de lo que puede salir mal. Los accidentes pueden ocurrir, por ello, la supervisión y la responsabilidad son esenciales si se va a encomendar a los sistemas de IA la toma de decisiones clave en la sociedad.

Prejuicios: El aspecto más comúnmente discutido en relación con los sistemas de IA es su propensión al sesgo, que puede dar cabida a prejuicios y desigualdades sociales, e incluso reforzarlos. Estos sesgos pueden provenir de datos que reflejen la discriminación existente, o que no sean representativos de la sociedad moderna. Incluso aunque los datos subyacentes estén libres de prejuicios, su despliegue puede codificar sesgos de distintas formas. En un informe publicado por la UNESCO2 se recoge que los asistentes por voz basados en IA, desde el Alexa de Amazon hasta el Siri de Apple, refuerzan los prejuicios relacionados con el género. Según el informe, estos asistentes por voz de IA tienen por defecto voces femeninas, y están programados de una manera que sugiere que las mujeres son sumisas. Hoy en día, solamente el 12% de los investigadores de IA y el 6% de los desarrolladores de software son mujeres. Puesto que los ingenieros de IA son mayoritariamente hombres de raza blanca, el sesgo de sus valores y creencias podría influir en el diseño de las aplicaciones. Además, el uso de modelos erróneos, o modelos con características discriminatorias poco evidentes, podría introducir prejuicios en los sistemas. Otra cuestión relacionada con el sesgo es el problema de la “caja negra”, o la imposibilidad de entender los pasos que sigue el sistema de IA para llegar a ciertas conclusiones, de manera que los prejuicios pueden surgir incluso inconscientemente. Por último, también es posible la introducción intencionada de ciertos prejuicios en los algoritmos.

El protagonismo de la moderación del contenido

Las plataformas de redes sociales utilizan algoritmos de moderación de contenido y equipos de revisión humana para supervisar las publicaciones generadas por los usuarios, conforme a un conjunto predeterminado de reglas y directrices. El trabajo de moderación del contenido requiere de una gran capacidad de concentración mental; no suele ser compatible con trabajar desde casa con familiares yendo y viniendo. Por ello, durante la crisis del Covid-19, las empresas han tenido que reducir la cantidad de contenido que se podía verificar.

La relevancia y trascendencia de la moderación del contenido se hicieron más evidentes en la campaña #StopHateForProfit (no más odio retribuido), que ponía de manifiesto los beneficios asociados al discurso dañino y la desinformación en Facebook. La campaña tuvo como resultado que más de 1.000 anunciantes, —incluidas entidades de primer nivel como Target, Unilever o Verizon— boicotearan la publicidad de Facebook en julio de 2020. El énfasis en la moderación del contenido se mantuvo durante la campaña electoral estadounidense, y las principales empresas de redes sociales establecieron directrices y procedimientos más estrictos.

La inversión requiere interacción

Por las razones aquí descritas, iniciamos un tema de interacción centrado en el impacto social de la inteligencia artificial en 2019. Desde el punto de vista de la inversión, existen grandes oportunidades en esta tendencia. En el informe3 elaborado por nuestro equipo de inversión de tendencias en diciembre de 2016 se ofrece información más detallada sobre la inteligencia artificial como oportunidad de inversión. Sin embargo, también somos muy conscientes de que la IA puede ejercer efectos no deseados que consideramos que nuestras participadas deberían atajar. Pedimos a estas empresas que hagan cinco cosas:

  1. Elaborar y publicar políticas claras para el uso, adquisición y desarrollo de soluciones de inteligencia artificial en las que se traten explícitamente sus repercusiones sociales y en materia de derechos humanos.

  2. Realizar evaluaciones de impacto periódicas de sus actividades de IA. La evaluación debe abarcar resultados discriminatorios, sesgos sociales, trabajo opaco y respeto a la intimidad.

  3. Establecer normativas de gobierno sólidas, ante las complejidades de control que rodean al aprendizaje automático. La empresa debe mantener procesos de control a través de los cuales se identifiquen las incidencias y riesgos asociados a las consecuencias indeseadas de la IA. El consejo debe contar con la formación y la experiencia suficientes para poder ejercer una labor supervisora significativa del marco de control de la IA y refrendar las políticas de IA y los informes de riesgos asociados.

  4. Tener en cuenta los aspectos sociales de la IA en la etapa de diseño y desarrollo. Esto supone, entre otras cosas, que sus equipos de desarrollo deben contar con un conocimiento suficiente en materia de ética y derechos humanos. Para mitigar los sesgos sociales, la empresa también debe promover la diversidad y la inclusión en sus equipos de IA.

  5. Adoptar un enfoque que dé cabida a los intereses de múltiples interlocutores en el desarrollo y uso de la IA por parte de la empresa. Existen diversas iniciativas y plataformas para compartir y promover las mejores prácticas. También esperamos que las empresas informen sobre sus actividades relacionadas con grupos de presión con incidencia sobre la legislación de IA.

Necesidad de mayor concienciación

A lo largo de 2020, hemos hablado con la mayoría de las empresas que nos acompañan en nuestro grupo de interacción. En las conversaciones iniciales, algunas empresas cuestionaron la relevancia de esta cuestión, o la consideraron ajena a su ámbito de responsabilidad. Esta postura parece estar cambiando en cierta medida para algunas de ellas.

En la temporada de votaciones en junta de 2020 se registró un aumento en el número de propuestas de accionistas centradas en los derechos humanos digitales. Robeco colideró la presentación de una propuesta de accionistas presentada en la JGO de Alphabet solicitando la creación de un Comité de Supervisión de Riesgos para los Derechos Humanos, integrado por consejeros independientes con experiencia relevante. Alrededor del 16% de los socios votó a favor de nuestra propuesta de acuerdo, lo que representa una parte sustancial de los votos de accionistas no mayoritarios.

La primera semana de noviembre, Alphabet anunció la modificación de su Mandato para el Comité de Auditoría, que ahora incluye la revisión de los principales riesgos a los que se expone la empresa en relación con la sostenibilidad y los derechos civiles y humanos. Esto se corresponde con nuestra petición de formalizar la supervisión del consejo, y es un primer paso para conseguir que comience a aplicarse a aspectos concretos relacionados con la sostenibilidad, como es el caso de los derechos humanos.

En el futuro, el uso de la inteligencia artificial sin duda va a aumentar e influir cada vez más en nuestras vidas y en nuestro trabajo. Como la moral y la ética no pueden codificarse computacionalmente, consideramos que las empresas deben asumir su responsabilidad en este sentido. Todavía queda mucho por hacer.

Notas al pie

1Global survey: The state of AI in 2020 | McKinsey
2Artificial intelligence and gender equality: key findings of UNESCO’s Global Dialogue, agosto de 2020