switzerlandde
SI Opener: Unternehmen sollten mit KI verbundene Probleme nicht ignorieren

SI Opener: Unternehmen sollten mit KI verbundene Probleme nicht ignorieren

28-01-2021 | Einblicke
Jüngste Entwicklungen in den USA haben gezeigt, dass der Einsatz von Künstlicher Intelligenz (KI) negative gesellschaftliche Auswirkungen mit sich bringen kann. Wer sich beispielsweise für das Thema „Die US-Wahlen wurden gefälscht“ interessiert, wird nur Informationen sehen, die das bestätigen. Verantwortlich dafür sind die Algorithmen, die von den hinter den Sozialen Medien stehenden Firmen verwendet werden. Man bekommt keine anderen Fakten und Meinungen präsentiert – und das kann schädlich sein.
  • Masja Zandbergen - Albers
    Masja
    Zandbergen - Albers
    Head of sustainability Integration
  • Daniëlle Essink
    Daniëlle
    Essink
    Engagement Specialist

In aller Kürze

  • In einigen Branchen ist Künstliche Intelligenz für 20 % des EBIT verantwortlich
  • Zu den Nachteilen gehören die Beeinträchtigung von Bürgerrechten, Unfälle und Biases
  • Die Unternehmen müssen für diese Probleme die Verantwortung übernehmen  

Nach Untersuchungen1 von McKinsey nutzen Unternehmen Künstliche Intelligenz (KI) zur Wertschöpfung. Die beim Einsatz von KI führenden Unternehmen stammen aus unterschiedlichen Branchen, in denen die Firmen bereits 20 % oder mehr ihrer Umsätze vor Abzug von Zinsen und Steuern auf KI zurückführen. 

Dies ist zwar ein positives Signal für Anleger, jedoch glauben wir, dass die Unternehmen auch auf die Risiken des Einsatzes von KI reagieren müssen. Aus derselben Studie ergibt sich, dass nur eine Minderheit der Unternehmen sich dieser Risiken bewusst ist und noch weniger von ihnen sich darum bemühen, sie zu reduzieren. Tatsächlich hören wir im Rahmen unseres Dialogs mit Unternehmen zu diesen Themen, dass sie von den Regulierern eindeutigere Vorgaben hinsichtlich des Einsatzes solcher Technologie erwarten. Unternehmen, die für die Zukunft gerüstet sind, sollten jedoch nicht auf die Regulierung warten, sondern von sich aus Verantwortung übernehmen.

Zu den aktuellen Einblicken
Zu den aktuellen Einblicken
Anmelden

Was sind Beispiele für diese gesellschaftlichen Probleme?

Bürgerrechte: KI-Systeme kommen in gesellschaftlich sensiblen Bereichen wie Bildung, Beschäftigung, Wohnraum, Bonitätsanalyse, Polizeiwesen und Strafverfolgung zunehmend zum Einsatz. Häufig werden sie ohne Kontextwissen oder die Zustimmung der Betroffenen verwendet und bedrohen so die bürgerlichen Rechte und Freiheiten. Beispielsweise bestehen Risiken für das Recht auf Privatsphäre, insbesondere durch den zunehmenden Einsatz von Systemen zur Gesichtserkennung, denen sich zu entziehen fast unmöglich ist.

Arbeitswelt und Automatisierung: KI-gestützte Automatisierung am Arbeitsplatz kann die Effizienz erhöhen und das Anfallen wiederkehrender Arbeiten reduzieren. Die Arbeitswelt wird sich voraussichtlich wandeln, da die Automatisierung in einigen Branchen Arbeitsplätze schafft und in anderen entfallen lässt. KI kann auch zu stärkerer Überwachung am Arbeitsplatz führen. Deshalb sollten Unternehmen sicherstellen, dass ihre Arbeitnehmer sich dessen bewusst sind, dass sie überwacht und bewertet werden. Ein weiteres Beispiel, das sich speziell auf den Technologiesektor bezieht, ist die im Verborgenen stattfindende Arbeit, die Menschen bei der Entwicklung, der Unterhaltung und dem Test von KI-Systemen leisten. Solche monotonen und häufig unbemerkte Tätigkeiten – oft auch als „Click-Working“ bezeichnet – wird nach Akkord entlohnt und häufig zu gering bezahlt. 

Sicherheit und Zurechenbarkeit: KI übernimmt bereits Entscheidungen in vielen Bereichen, unter anderem bei Finanzdienstleistern, in Krankenhäusern und in Stromnetzen. Aufgrund des Innovationsdrucks am Markt sind verschiedene KI-Systeme eingesetzt worden, bevor ihre technische Sicherheit garantiert war. Das autonome Auto von Uber, das eine Frau getötet hat, und Systeme von IBM, die unsichere und falsche Empfehlungen zu Krebsbehandlungen abgegeben haben, sind Beispiele für mögliche Fehlentwicklungen. Weil es zu Unfällen kommen kann, sind Kontrolle und Verantwortung unverzichtbar, wenn KI-Systeme in Zukunft wichtige Entscheidungen in der Gesellschaft treffen sollen. 

Biases: Das am häufigsten erörterte Problem bei KI-Systemen ist seine Anfälligkeit für Biases, die Vorteile und soziale Ungleichheit reflektieren und sogar verstärken können. Diese Biases können aus Daten resultieren, die bereits bestehende Diskriminierungen widerspiegeln oder nicht repräsentativ für die moderne Gesellschaft sind. Selbst wenn die zugrundeliegenden Daten keinen Bias aufweisen, kann es bei ihrer Verwendung auf verschiedene Weise zur Programmierung von Biases kommen. Laut einem Bericht der UNESCO2 verstärken KI-gestützte Stimmassistenten – von Amazons Alexa bis hin zu Apples Siri – geschlechtsbezogene Biases. Laut dem Bericht verfügen diese KI-gestützten Stimmassistenten standardmäßig über weibliche Stimmen und sind auf eine Weise programmiert, die unterstellt, dass Frauen unterwürfig sind. Aktuell sind nur 12 % der KI-Researchexperten und nur 6 % der Softwareentwickler Frauen. Da KI-Entwickler vorwiegend weiße männliche Techniker sind, könnte es im Rahmen der Entwicklung von Anwendungen zu einem Bias in Richtung auf ihre Werte und Überzeugungen kommen. Des Weiteren könnte der Einsatz der falschen Modelle oder von Modellen mit unbeabsichtigt diskriminierenden Eigenschaften zu einem Bias im System führen. Ein anderer Aspekt im Zusammenhang mit Biases ist das „Blackbox“-Problem. Es tritt auf, wenn es unmöglich ist, die vom KI-System getätigten Schritte vor Treffen einer bestimmten Entscheidung zu verstehen. Daraus kann sich ein unbewusster Bias ergeben. Nicht zuletzt kann auch ein beabsichtigter Bias in die Algorithmen integriert werden.

Content-Moderation im Fokus

Soziale Medien nutzen Algorithmen zur Content-Moderation und menschliche Kontrollteams zur Überwachung von Nutzerbeiträgen basierend auf vorab festgelegten Regeln und Leitlinien. Content-Moderation erfordert eine sehr starke psychische Konstitution – sie eignet sich häufig nicht dafür, von zu Hause aus erledigt zu werden, wo Familienmitglieder sich im selben Raum befinden. Infolgedessen mussten die Unternehmen während der Kontaktbeschränkungen während der Coronavirus-Pandemie den Umfang der Inhalte reduzieren, der überprüft werden kann. 

Die Relevanz von Content-Moderation wurde anhand der #StopHateForProfit-Kampagne deutlich, die auf die Gewinnerzielung mit verletzender Sprache und Fehlinformation auf Facebook hinwies. Die Kampagne führt dazu, dass mehr als 1000 Werbekunden – darunter große Unternehmen wie Target, Unilever und Verizon – Facebook bei der Anzeigenvergabe im Juli 2020 boykottierten. Content-Moderation blieb im Vorfeld der US-Wahlen im Fokus. Dabei galten bei allen wichtigen Anbietern sozialer Medien strengere Leitlinien und Prozesse. 

Investments erfordern Engagement

Aus den obengenannten Gründen begannen wir im Jahr 2019 einen Dialog zum Thema gesellschaftliche Auswirkungen von künstlicher Intelligenz. Aus Anlageperspektive sehen wir bei diesem Trend große Chancen. Weiterführende Informationen über künstliche Intelligenz als Anlagechance finden sich in dem Whitepaper3, das unser Trends Investing-Team im Dezember 2016 veröffentlicht hat. Allerdings haben wir auch anerkannt, dass KI unerwünschte Effekte mit sich bringen kann, auf die die Unternehmen in unseren Portfolios unseres Erachtens reagieren sollten. Wir fordern Unternehmen auf, fünf Dinge zu tun:

  1. Entwicklung und Publikation klarer Leitlinien für den Einsatz, die Bereitstellung und Entwicklung von KI-Systemen, die ausdrücklich gesellschaftlichen und menschenrechtsbezogenen Aspekten Rechnung tragen. 
  2. Durchführung regelmäßiger Analysen der Auswirkungen ihrer KI-Aktivitäten. Abgedeckt werden sollten dabei folgende Aspekte: diskriminierende Ergebnisse, soziale Biases, im Verborgenen stattfindende Arbeit und Probleme im Zusammenhang mit der Privatsphäre. 
  3. Einführung leistungsfähiger Governance-Vorgaben angesichts der komplexen Kontrollerfordernisse bei maschinellem Lernen. Die Unternehmen sollten Kontrollprozesse etablieren, die Vorfälle und Risiken im Zusammenhang mit unbeabsichtigten Konsequenzen des Einsatzes von KI identifizieren. Die Boards sollten ausreichend trainiert und erfahren sein, um den KI-bezogenen Kontrollrahmen wirkungsvoll überwachen zu können und KI-Leitlinien sowie ein entsprechendes Risiko-Reporting verabschieden zu können.
  4. Berücksichtigung gesellschaftlicher Aspekte von KI in der Entwurfs- und Entwicklungsphase. Das bedeutet unter anderem, dass in den Entwicklungsteams der Unternehmen ausreichendes Wissen im Hinblick auf die Menschenrechte und in ethischer Hinsicht vorhanden ist. Um soziale Biases abzuschwächen, sollten die Unternehmen auch für mehr Diversität und Inklusion in ihren KI-Teams sorgen.
  5. Verwendung eines Multi-Stakeholder-Ansatzes bei der Entwicklung und beim Einsatz von KI. Im Rahmen diverser Initiativen und auf verschiedenen Plattformen können Best-Practices ausgetauscht und verbreitet werden. Wir erwarten von den Unternehmen auch, dass sie über ihre Lobbyaktivitäten in Bezug auf KI-Gesetzgebung berichten.
  6.  

Noch mehr Problembewusstsein erforderlich

Im Lauf des Jahres 2020 haben wir mit den meisten Unternehmen in unserer Engagement-Peergroup gesprochen. Bei unseren anfänglichen Gesprächen haben einige Unternehmen die Relevanz des Problems infrage gestellt oder wollten keine Verantwortung dafür übernehmen. Diese Einstellung scheint sich jedoch mittlerweile bei einigen von ihnen zu ändern.

Auf den Hauptversammlungen im Jahr 2020 kam es zu vermehrten Anträgen von Aktionären, die sich auf digitale Menschenrechte bezogen. Robeco gehörte zu den Initiatoren eines Aktionärsantrags auf der Hauptversammlung von Alphabet, der die Bildung eines Human Rights Risk Oversight-Komitees verlangte, welches aus unabhängigen Direktoren mit einschlägiger Erfahrung besteht. Rund 60 % der Aktionäre befürworteten unseren Antrag – ein erheblicher Anteil der Aktionärsstimmen ohne Kontrollmehrheit. 

In der ersten Novemberwoche kündigte Alphabet eine Ergänzung seines Audit Committee Charter an. Dieses umfasst nun auch die Prüfung wesentlicher Risiken im Hinblick auf Nachhaltigkeit sowie Bürger- und Menschenrechte. Dies steht im Einklang mit unserem Antrag auf eine formalisierte Board-Überwachung und stellt einen ersten Schritt in diese Richtung dar, was spezifische Nachhaltigkeitsaspekte wie beispielsweise Menschenrechte angeht. 

Künstliche Intelligenz wird in Zukunft immer häufiger eingesetzt werden und unser Leben und unsere Arbeit künftig erheblich beeinflussen. Da moralische und ethische Grundsätze nicht programmiert werden können, sollten die Unternehmen unserer Überzeugung nach ihre diesbezügliche Verantwortung anerkennen. Es gibt in dieser Hinsicht noch viel zu tun.

2Artificial intelligence and gender equality: key findings of UNESCO’s Global Dialogue, August 2020
SI Opener
SI Opener
Bilder liefern den Beweis.
Lesen Sie alle Artikel.
Logo

Zugangsbeschränkung / Haftungsausschluss

Die auf diesen Seiten enthaltenen Informationen dienen Marketingzwecken und sind ausschliesslich für (i) qualifizierte Anleger gemäss dem Schweizer Bundesgesetz über die kollektiven Kapitalanlagen vom 23. Juni 2006 („KAG“), (ii) Professionelle Kunden gemäss Anhang II der Richtlinie über Märkte für Finanzinstrumente (2014/65/EU; „MiFID II“) mit Sitz in der Europäischen Union oder im Europäischen Wirtschaftsraum mit einer entsprechenden Lizenz zur Erbringung von Vertriebs- / Angebotshandlungen im Zusammenhang mit Finanzinstrumenten oder für (iii) solche, die hiermit aus eigener Initiative entsprechende Informationen zu spezifischen Finanzinstrumenten erfragen und als professionelle Kunden qualifizieren.

Die Fonds haben ihren Sitz in Luxemburg oder den Niederlanden. Die ACOLIN Fund Services AG, Postanschrift: Affolternstrasse 56, 8050 Zürich, agiert als Schweizer Vertreter der Fonds. UBS Switzerland AG, Bahnhofstrasse 45, 8001 Zürich, Postanschrift: Europastrasse 2, P.O. Box, CH-8152 Opfikon, fungiert als Schweizer Zahlstelle. Der Prospekt, die Key Investor Information Documents (KIIDs), die Satzung, die Jahres- und Halbjahresberichte der Fonds sind auf einfache Anfrage hin und kostenlos im beim Schweizer Vertreter ACOLIN Fund Services AG erhältlich. Die Prospekte sind auch über die Website www.robeco.ch verfügbar.

Einige Fonds, über die Informationen auf dieser Website angezeigt werden, fallen möglicherweise nicht in den Geltungsbereich des KAG und müssen daher nicht über eine entsprechende Genehmigung durch die Eidgenössische Finanzmarktaufsicht FINMA verfügen. Einige Fonds sind in Ihrem Wohnsitz- / Sitzstaat möglicherweise nicht verfügbar. Bitte überprüfen Sie den Registrierungsstatus in Ihrem jeweiligen Wohnsitz- / Sitzstaat. Um die in Ihrem Land registrierten Produkte anzuzeigen, gehen Sie bitte zur jeweiligen Länderauswahl, die auf dieser Website zu finden ist, und wählen Sie Ihr Wohnsitz- / Sitzstaat aus.

Weder Informationen noch Meinungen auf dieser Website stellen eine Aufforderung, ein Angebot oder eine Empfehlung zum Kauf, Verkauf oder einer anderweitigen Verfügung eines Finanzinstrumentes dar. Die Informationen auf dieser Webseite stellen keine Anlageberatung oder anderweitige Dienstleistung der Robeco Switzerland Ltd dar. Eine Investition in ein Produkt von Robeco Switzerland Ltd sollte erst erfolgen, nachdem die entsprechenden rechtlichen Dokumente wie Verwaltungsvorschriften, Prospekt, Jahres- und Halbjahresberichte konsultiert wurden.

Durch Klicken auf "Ich stimme zu" bestätigen Sie, dass Sie resp. die von Ihnen vertretene juristische Person eine der oben genannten Kategorien von Adressaten fallen und dass Sie die Nutzungsbedingungen für diese Website gelesen, verstanden und akzeptiert haben.

Nicht Zustimmen