latames
SI Opener: Las empresas no deben pasar por alto la parte problemática de la IA

SI Opener: Las empresas no deben pasar por alto la parte problemática de la IA

08-02-2021 | Visión
Los recientes acontecimientos vividos en Estados Unidos han puesto de manifiesto que el empleo de la inteligencia artificial puede traer consigo importantes problemas sociales. Las personas que estén interesadas en un tema, como “fraude electoral en Estados Unidos”, solo verán información que confirme su postura, debido a los algoritmos utilizados por las empresas de redes sociales. No estarán expuestas a otros hechos y opiniones, y esto puede resultar perjudicial.
  • Masja Zandbergen - Albers
    Masja
    Zandbergen - Albers
    Head of sustainability integration
  • Daniëlle Essink
    Daniëlle
    Essink
    Engagement Specialist

Lectura rápida

  • La inteligencia artificial representa el 20% del EBIT en algunas industrias
  • Entre sus problemas destacan la vulneración de los derechos civiles, los accidentes y los prejuicios
  • Las empresas deben asumir la responsabilidad por estos problemas

En un estudiorealizado por McKinsey, se muestra que diversas organizaciones están utilizando la IA como herramienta para generar valor. Las entidades que más la emplean pertenecen a muy diversos sectores, y hoy por hoy ya atribuyen el 20% o más de sus ganancias antes de intereses e impuestos a la IA. 

Aunque se trata de un dato positivo para los inversores, creemos firmemente que las empresas también deben hacer frente a los riesgos que conlleva la utilización de la IA. El mismo estudio revela también que solamente una minoría de empresas es consciente de estos riesgos, y que son todavía menos las que trabajan para reducirlos. De hecho, durante nuestra interacción con distintas empresas en relación con estos temas, a menudo les oímos decir que los organismos reguladores deberían establecer pautas más claras acerca del uso de esta tecnología. Las empresas mejor preparadas para el futuro no deben esperar a que llegue la regulación, sino asumir su responsabilidad desde el principio.

Conozca las perspectivas más recientes
Conozca las perspectivas más recientes
Suscríbase

¿Cuáles son algunos de sus problemas sociales?

Derechos civiles: Los sistemas de IA se utilizan cada vez más en espacios socialmente sensibles tales como la educación, el empleo, la vivienda, la calificación crediticia, la vigilancia policial y el sistema de justicia penal. A menudo, se despliegan sin conocimiento contextual o consentimiento informado, de manera que suponen una amenaza para los derechos y libertades civiles. Por ejemplo, el derecho a la intimidad corre peligro, sobre todo con la proliferación de las tecnologías de reconocimiento facial, ya que resulta casi imposible declinar su aplicación.

Mano de obra y automatización: La automatización de procesos de trabajo basada en IA ofrece el potencial de mejorar la eficiencia y reducir la cantidad de tareas repetitivas. Se espera que las profesiones cambien, ya que la automatización genera empleos en algunas industrias y reemplaza a los trabajadores de otras. La IA también puede dar lugar a una mayor vigilancia de nuestro trabajo, lo que significa que las empresas deben asegurarse de que sus trabajadores son plenamente conscientes de cómo se les rastrea y evalúa. Otro ejemplo relacionado específicamente con el sector tecnológico es la opaca labor de las personas que ayudan a construir, mantener y probar sistemas de IA. Este tipo de trabajo repetitivo, poco visible y a menudo no reconocido —también llamado “click working”— se paga por tarea realizada, y suele estar mal remunerado. 

Seguridad y responsabilidad: La IA ya tiene a su cargo la toma de decisiones en muchos sectores, como servicios financieros, hospitales y redes de energía. Debido a la presión del mercado por la innovación, se han desplegado sistemas de IA antes incluso de verificar su seguridad técnica. El vehículo sin conductor de Uber, que mató a una mujer, o el sistema de IBM que recomendaba tratamientos poco seguros e incorrectos para casos de cáncer son claros ejemplos de lo que puede salir mal. Los accidentes pueden ocurrir, por ello, la supervisión y la responsabilidad son esenciales si se va a encomendar a los sistemas de IA la toma de decisiones clave en la sociedad. 

Prejuicios: El aspecto más comúnmente discutido en relación con los sistemas de IA es su propensión al sesgo, que puede dar cabida a prejuicios y desigualdades sociales, e incluso reforzarlos. Estos sesgos pueden provenir de datos que reflejen la discriminación existente, o que no sean representativos de la sociedad moderna. Incluso aunque los datos subyacentes estén libres de prejuicios, su despliegue puede codificar sesgos de distintas formas. En un informe publicado por la UNESCO2 se recoge que los asistentes por voz basados en IA, desde el Alexa de Amazon hasta el Siri de Apple, refuerzan los prejuicios relacionados con el género. Según el informe, estos asistentes por voz de IA tienen por defecto voces femeninas, y están programados de una manera que sugiere que las mujeres son sumisas. Hoy en día, solamente el 12% de los investigadores de IA y el 6% de los desarrolladores de software son mujeres. Puesto que los ingenieros de IA son mayoritariamente hombres de raza blanca, el sesgo de sus valores y creencias podría influir en el diseño de las aplicaciones. Además, el uso de modelos erróneos, o modelos con características discriminatorias poco evidentes, podría introducir prejuicios en los sistemas. Otra cuestión relacionada con el sesgo es el problema de la “caja negra”, o la imposibilidad de entender los pasos que sigue el sistema de IA para llegar a ciertas conclusiones, de manera que los prejuicios pueden surgir incluso inconscientemente. Por último, también es posible la introducción intencionada de ciertos prejuicios en los algoritmos.

El protagonismo de la moderación del contenido

Las plataformas de redes sociales utilizan algoritmos de moderación de contenido y equipos de revisión humana para supervisar las publicaciones generadas por los usuarios, conforme a un conjunto predeterminado de reglas y directrices. El trabajo de moderación del contenido requiere de una gran capacidad de concentración mental; no suele ser compatible con trabajar desde casa con familiares yendo y viniendo. Por ello, durante la crisis del Covid-19, las empresas han tenido que reducir la cantidad de contenido que se podía verificar. 

La relevancia y trascendencia de la moderación del contenido se hicieron más evidentes en la campaña #StopHateForProfit (no más odio retribuido), que ponía de manifiesto los beneficios asociados al discurso dañino y la desinformación en Facebook. La campaña tuvo como resultado que más de 1.000 anunciantes, —incluidas entidades de primer nivel como Target, Unilever o Verizon— boicotearan la publicidad de Facebook en julio de 2020. El énfasis en la moderación del contenido se mantuvo durante la campaña electoral estadounidense, y las principales empresas de redes sociales establecieron directrices y procedimientos más estrictos. 

La inversión requiere interacción

Por las razones aquí descritas, iniciamos un tema de interacción centrado en el impacto social de la inteligencia artificial en 2019. Desde el punto de vista de la inversión, existen grandes oportunidades en esta tendencia. En el informe3 elaborado por nuestro equipo de inversión de tendencias en diciembre de 2016 se ofrece información más detallada sobre la inteligencia artificial como oportunidad de inversión. Sin embargo, también somos muy conscientes de que la IA puede ejercer efectos no deseados que consideramos que nuestras participadas deberían atajar. Pedimos a estas empresas que hagan cinco cosas:

  1. Elaborar y publicar políticas claras para el uso, adquisición y desarrollo de soluciones de inteligencia artificial en las que se traten explícitamente sus repercusiones sociales y en materia de derechos humanos. 
  2. Realizar evaluaciones de impacto periódicas de sus actividades de IA. La evaluación debe abarcar resultados discriminatorios, sesgos sociales, trabajo opaco y respeto a la intimidad.
  3. Establecer normativas de gobierno sólidas, ante las complejidades de control que rodean al aprendizaje automático. La empresa debe mantener procesos de control a través de los cuales se identifiquen las incidencias y riesgos asociados a las consecuencias indeseadas de la IA. El consejo debe contar con la formación y la experiencia suficientes para poder ejercer una labor supervisora significativa del marco de control de la IA y refrendar las políticas de IA y los informes de riesgos asociados.
  4. Tener en cuenta los aspectos sociales de la IA en la etapa de diseño y desarrollo. Esto supone, entre otras cosas, que sus equipos de desarrollo deben contar con un conocimiento suficiente en materia de ética y derechos humanos. Para mitigar los sesgos sociales, la empresa también debe promover la diversidad y la inclusión en sus equipos de IA.
  5. Adoptar un enfoque que dé cabida a los intereses de múltiples interlocutores en el desarrollo y uso de la IA por parte de la empresa. Existen diversas iniciativas y plataformas para compartir y promover las mejores prácticas. También esperamos que las empresas informen sobre sus actividades relacionadas con grupos de presión con incidencia sobre la legislación de IA.
  6.  

Necesidad de mayor concienciación

A lo largo de 2020, hemos hablado con la mayoría de las empresas que nos acompañan en nuestro grupo de interacción. En las conversaciones iniciales, algunas empresas cuestionaron la relevancia de esta cuestión, o la consideraron ajena a su ámbito de responsabilidad. Esta postura parece estar cambiando en cierta medida para algunas de ellas.

En la temporada de votaciones en junta de 2020 se registró un aumento en el número de propuestas de accionistas centradas en los derechos humanos digitales. Robeco colideró la presentación de una propuesta de accionistas presentada en la JGO de Alphabet solicitando la creación de un Comité de Supervisión de Riesgos para los Derechos Humanos, integrado por consejeros independientes con experiencia relevante. Alrededor del 16% de los socios votó a favor de nuestra propuesta de acuerdo, lo que representa una parte sustancial de los votos de accionistas no mayoritarios. 

La primera semana de noviembre, Alphabet anunció la modificación de su Mandato para el Comité de Auditoría, que ahora incluye la revisión de los principales riesgos a los que se expone la empresa en relación con la sostenibilidad y los derechos civiles y humanos. Esto se corresponde con nuestra petición de formalizar la supervisión del consejo, y es un primer paso para conseguir que comience a aplicarse a aspectos concretos relacionados con la sostenibilidad, como es el caso de los derechos humanos. 

En el futuro, el uso de la inteligencia artificial sin duda va a aumentar e influir cada vez más en nuestras vidas y en nuestro trabajo. Como la moral y la ética no pueden codificarse computacionalmente, consideramos que las empresas deben asumir su responsabilidad en este sentido. Todavía queda mucho por hacer.

1 Global survey: The state of AI in 2020 | McKinsey
2Artificial intelligence and gender equality: key findings of UNESCO’s Global Dialogue, agosto de 2020
SI Opener
SI Opener
Ver para creer.
Artículos relacionados
Logo

Información importante

Los Fondos Robeco Capital Growth no han sido inscritos conforme a la Ley de sociedades de inversión de Estados Unidos (United States Investment Company Act) de 1940, en su versión en vigor, ni conforme a la Ley de valores de Estados Unidos (United States Securities Act) de 1933, en su versión en vigor. Ninguna de las acciones puede ser ofrecida o vendida, directa o indirectamente, en los Estados Unidos ni a ninguna Persona estadounidense en el sentido de la Regulation S promulgada en virtud de la Ley de Valores de 1933, en su versión en vigor (en lo sucesivo, la “Ley de Valores”)). Asimismo, Robeco Institutional Asset Management B.V. (Robeco) no presta servicios de asesoramiento de inversión, ni da a entender que puede ofrecer este tipo de servicios, en los Estados Unidos ni a ninguna Persona estadounidense (en el sentido de la Regulation S promulgada en virtud de la Ley de Valores).

Este sitio Web está únicamente destinado a su uso por Personas no estadounidenses fuera de Estados Unidos (en el sentido de la Regulation S promulgada en virtud de la Ley de Valores) que sean inversores profesionales o fiduciarios profesionales que representen a dichos inversores que no sean Personas estadounidenses. Al hacer clic en el botón “Acepto” que se encuentra en el aviso sobre descargo de responsabilidad de nuestro sitio Web y acceder a la información que se encuentra en dicho sitio, incluidos sus subdominios, usted confirma y acepta lo siguiente: (i) que ha leído, comprendido y aceptado el presente aviso legal, (ii) que se ha informado de las restricciones legales aplicables y que, al acceder a la información contenida en este sitio Web, manifiesta que no infringe, ni provocará que Robeco o alguna de sus entidades o emisores vinculados infrinjan, ninguna ley aplicable, por lo que usted está legalmente autorizado a acceder a dicha información, en su propio nombre y en representación de sus clientes de asesoramiento de inversión, en su caso, (iii) que usted comprende y acepta que determinada información contenida en el presente documento se refiere a valores que no han sido inscritos en virtud de la Ley de Valores, y que solo pueden venderse u ofrecerse fuera de Estados Unidos y únicamente por cuenta o en beneficio de Personas no estadounidenses (en el sentido de la Regulation S promulgada en virtud de la Ley de Valores), (iv) que usted es, o actúa como asesor de inversión discrecional en representación de, una Persona no estadounidense (en el sentido de la Regulation S promulgada en virtud de la Ley de Valores) situada fuera de los Estados Unidos y (v) que usted es, o actúa como asesor de inversión discrecional en representación de, un inversión profesional no minorista. El acceso a este sitio Web ha sido limitado, de manera que no constituya intento de venta dirigida (según se define este concepto en la Regulation S promulgada en virtud de la Ley de Valores) en Estados Unidos, y que no pueda entenderse que a través del mismo Robeco dé a entender al público estadounidense en general que ofrece servicios de asesoramiento de inversión. Nada de lo aquí señalado constituye una oferta de venta de valores o la promoción de una oferta de compra de valores en ninguna jurisdicción. Nos reservamos el derecho a denegar acceso a cualquier visitante, incluidos, a título únicamente ilustrativo, aquellos visitantes con direcciones IP ubicadas en Estados Unidos.

Este sitio Web ha sido cuidadosamente elaborado por Robeco. La información de esta publicación proviene de fuentes que son consideradas fiables. Robeco no es responsable de la exactitud o de la exhaustividad de los hechos, opiniones, expectativas y resultados referidos en la misma. Aunque en la elaboración de este sitio Web se ha extremado la precaución, no aceptamos responsabilidad alguna por los daños de ningún tipo que se deriven de una información incorrecta o incompleta. El presente sitio Web podrá sufrir cambios sin previo aviso. El valor de las inversiones puede fluctuar. Rendimientos anteriores no son garantía de resultados futuros. Si la divisa en que se expresa el rendimiento pasado difiere de la divisa del país en que usted reside, tenga en cuenta que el rendimiento mostrado podría aumentar o disminuir al convertirlo a su divisa local debido a las fluctuaciones de los tipos de cambio. Para inversores profesionales únicamente. Prohibida su comunicación al público en general.

No estoy de acuerdo