24-02-2023 · Einblick

Senkung der Risiken von Künstlicher Intelligenz

Die Unternehmen werden sich zunehmend der Risiken bewusst, die aus Künstlicher Intelligenz (KI) für die Gesellschaft erwachsen können. Allerdings ist noch viel zu tun. Dies war das Ergebnis eines dreijährigen Dialogs des Active Ownership Teams von Robeco mit zehn Unternehmen, die bei dieser Technologie führend sind.

    Autoren/Autorinnen

  • Daniëlle Essink-Zuiderwijk - Engagement Specialist

    Daniëlle Essink-Zuiderwijk

    Engagement Specialist

  • Claire Ahlborn - Engagement Specialist

    Claire Ahlborn

    Engagement Specialist

KI kann erhebliche Vorteile mit sich bringen – von einfachen Anwendungen des maschinellen Lernens (z.B. automatische Ergänzung getippter Texte) bis hin zu komplexeren Algorithmen, die Bedarf nach Gesundheitsleistungen vorhersagen und Muster beim Klimawandel erkennen können. KI wird mittlerweile routinemäßig im gesamten Technologiespektrum eingesetzt und kommt häufig zur Anwendung, ohne dass ein Nutzer dies überhaupt bemerkt.

Verbunden sind damit allerdings auch beträchtliche Gefahren im Hinblick auf den Schutz der Privatsphäre, das Datenmanagement und die Aussicht auf maschinelles „Lernen“, das zu ungewollter Überwachung, Racial Profiling oder Diskriminierung führt. Wie es sich in der Praxis tatsächlich verhält, ist schwer zu ermitteln, da es an Informationen über die Aktivitäten von Unternehmen im Bereich KI mangelt.

Die unzureichenden Informationen waren einer der Gründe, weshalb das Active Ownership-Team nur vier von fünf Fällen im Rahmen des Engagement-Programms von 2019-2022 erfolgreich abschließen konnte. Die übrigen fünf Fälle wurden an das SDG Engagement-Thema des Teams transferiert, damit ein weiterer Dialog mit diesen Unternehmen zu deren gesellschaftlichen Auswirkungen erfolgt.

Harmonisierung von Praktiken

„Im Rahmen unseres Engagements stellten wir fest, dass die Unternehmen ihre internen Praktiken allmählich an die Grundsätze verantwortungsvoller KI anpassen“, sagt Engagement-Spezialistin Danielle Essink. „Viele Unternehmen haben KI-Grundsätze formalisiert, die sich auf Themen wie Inklusion, Fairness und Transparenz beziehen.“

„Außerdem verfolgen die Unternehmen zunehmend einen kooperativen Ansatz, indem sie aktiv zu Initiativen beitragen, die auf die Förderung verantwortungsvoller Governance und Best-Practice abzielen. Diese Arten von Initiativen spielen eine entscheidende Rolle bei der Gewährleistung vertrauenswürdiger KI in der gesamten Branche.“

„Allerdings stellen ethische Prinzipien allein noch keine verantwortungsbewusste Entwicklung und Nutzung von KI sicher. Die Unternehmen brauchen robuste Governance-Mechanismen, um ihre Grundsätze effektiv umzusetzen.“

Mangelnde Offenlegung

Ein wesentlicher Stolperstein sind die unzureichenden Informationen darüber, was Unternehmen neben ihrer Bereitschaft zum Engagement als solchem tatsächlich tun, um Bedenken Rechnung zu tragen. Ein Großteil der KI-Technologie und ihrer Umsetzung auf verschiedenen Plattformen ist nach wie vor geheimnisumwittert.

„Im Rahmen unseres Engagements haben wir festgestellt, dass die Transparenz in Bezug auf Governance und Umsetzung nach wie vor gering ist. So mangelt es den meisten von den Unternehmen veröffentlichten Angaben an Klarheit darüber, wie solche Grundsätze in der Praxis umgesetzt werden und welche Kontrollmechanismen es gibt“, sagt Engagement-Spezialistin Claire Ahlborn, die ebenfalls an dem Programm teilnahm.

„Nachdem wir mit den Unternehmen gesprochen hatten, wurden wir uns über die Details der Umsetzung im klaren. Das gab uns die notwendige Zuversicht, einige der Zielsetzungen für erreicht zu erklären. Die Resultate des Engagements im Hinblick auf dieses Thema hängen deshalb stark von der Bereitschaft der Unternehmen ab, sich auf einen konstruktiven Dialog einzulassen.“

Next-Generation Quant

Mit dem technologischen Fortschritt nehmen auch die Möglichkeiten für quantitative Investoren zu. Indem wir mehr Daten einbeziehen und fortgeschrittene Modellierungstechniken nutzen, können wir tiefere Einblicke gewinnen und bessere Entscheidungen treffen.

Erwartung enormen Wachstums

Aus dem Worldwide Artificial Intelligence Software Forecast 2022 der International Data Corporation ergab sich, dass der globale KI-Markt allein zwischen 2022 und 2026 ein durchschnittliches jährliches Wachstum von 18,6 % erleben soll.

Doch mit den möglichen Vorteilen sind Risiken verbunden, die noch nicht vollständig untersucht, geschweige denn verstanden sind, so Danielle Essink. Um das Potenzial von KI voll auszuschöpfen, müssen die Unternehmen die Risiken steuern, die mit der Entwicklung und der Nutzung der Technologie verbunden sind. Dies betrifft auch Risiken in Bezug auf die Menschenrechte.

„In Anbetracht der Geschwindigkeit, mit der sich die Entwicklung von KI vollzieht, besteht kein Zweifel, dass diese Technologie in den nächsten Jahrzehnten unsere Wirtschaft und Gesellschaft auf eine heute unvorstellbare Weise transformieren wird“, sagt Danielle Essink.

Positive Veränderungen

„Diese Art Wachstum bedeutet für KI beträchtliche Chancen, zu positiven Veränderungen beizutragen – beispielsweise durch Erkennung von Mustern bei Umweltdaten oder verbesserte Analysen von Gesundheitsinformationen.“

„Gleichzeitig könnte KI neue Probleme verursachen oder bestehende verstärken, wenn Unternehmen die mit diesen Technologien verbundenen Risiken nur unzureichend verstehen. Beispielsweise können KI-Algorithmen im Rahmen des Anlegens von Profilen diskriminierende Effekte haben. Das wäre beispielsweise der Fall, wenn Algorithmen zur Evaluierung der Kreditwürdigkeit Menschen mit bestimmten ethnischen Hintergründen oder solche, die in bestimmten Gegenden wohnen, benachteiligen würden.“

„Ebenso kann KI zur Überwachung eingesetzt werden – sowohl in der Öffentlichkeit als auch am Arbeitsplatz. Das schafft Risiken im Hinblick auf den Schutz der Privatsphäre. Dies illustriert den zunehmenden Bedarf nach einer verantwortungsvollen Governance für KI-Systeme, um zu gewährleisten, dass solche Systeme konform mit ethischen Werten, Normen und der wachsenden Zahl an KI-Regulierungen sind.“

Anstehende Regulierungen

Solche regulatorischen Maßnahmen und Richtlinien Vorschläge sind bereits von Regierungen, Ethikkomitees, Nichtregierungsorganisationen, Akademikern und der EU vorgeschlagen worden. Im April 2021 hat die EU-Kommission den Entwurf zum AI Act vorgelegt. Darin sind klare Anforderungen und Verpflichtungen für Entwickler, Anwender und Nutzer beschrieben, was spezifische Verwendungen von KI angeht.

In dem Vorhaben werden vier regulatorische Kategorien auf Basis des Risikoniveaus identifiziert. Am oberen Ende befindliche, als hochriskant identifizierte KI-Systeme (z.B. Tools zur Analyse von Lebensläufen zwecks Ranking von Arbeitsplatzbewerbern) sollen strikten Auflagen unterliegen. Dazu zählen zusätzliche Risikomanagement-Prozesse und Kontrolle durch Menschen. KI-Systeme mit geringen Risiken dagegen werden weitgehend unreguliert bleiben.

„Dieser zunehmende gesetzgeberische Druck im Zusammenhang mit KI könnte erhebliche regulatorische Risiken für Unternehmen bedeuten, die nicht gut auf die Einhaltung der verschärften Vorgaben vorbereitet sind“, sagt Claire Ahlborn.