Künstliche Intelligenz ist großartig, aber welche Risiken sollten Unternehmen beachten?

Künstliche Intelligenz ist mittlerweile längst in unserem Alltag angekommen. Umso lauter die Bedenken, diese Technologie so transparent wie möglich zu halten. So fordern etwa EU-Abgeordnete, dass Systeme mit KI „erklärbare und unvoreingenommene Algorithmen“ einsetzen. Leuchtet ein – oder vielleicht auch nicht?

Um die Möglichkeiten und Risiken von Künstlicher Intelligenz besser zu verstehen, haben wir mit Peter Breuer telefoniert, dem KI-Spezialisten der Unternehmens- und Strategieberatung McKinsey. Er hat uns nicht nur die drei großen Risiken erklärt, die man bei neuronalen Netzen beachten muss, sondern auch die Prinzipien des KI-Risikomanagements erklärt.

In welchen Bereichen des Alltags begegnet uns bereits künstliche Intelligenz?

Wir sind tagtäglich von KI umgeben. Bei jeder SMS, die wir schreiben, läuft im Hintergrund eine KI mit, die die Worterkennung ermöglicht. Wenn unsere Kinder „Fortnite“ spielen oder TikTok nutzen, werden sie mit KI-Algorithmen konfrontiert.

Welche Risiken gibt es bei Künstlicher Intelligenz?

Insbesondere bei künstlichen neuronalen Netzen gibt es an vielen Stellen Fehleranfälligkeiten und Risiken. Das fängt schon damit an, wie diese Netze trainiert werden. Daten werden übermittelt und anschließend prüfen Trainer*innen, ob es richtig oder falsch geraten hat. So lernt das Netz immer weiter. Doch beim Anlernen des Netzes können Fehler passieren, weil man gewisse Faktoren einfach übersieht.

Zweites Risiko: Wenn man die Kerndaten nicht so auswählt, dass es keinen Bias in diesen Daten gibt, führt das zu falschen Ergebnissen. Zum Beispiel taten sich gewisse Gesichtserkennungssoftwares bei Menschen mit schwarzer Hautfarbe deutlich schwerer als bei Menschen mit weißer. Einfach, weil das Trainingsset primär Menschen mit weißer Hautfarbe beinhaltete. Hierzu gibt es mittlerweile genug Negativbeispiele im Netz. Aus diesem Grund müssen Verantwortliche bei ihren Analytics-Teams genau erfragen, wie die Daten für das Training der KI-Modelle erprobt wurden. Entsprechen die Datensätze der realen Welt? Enthalten sie Daten, die für Minderheitengruppen relevant sind? Welche Bereiche wurden nicht abgedeckt?

Peter Breuer ist Senior Partner bei der Unternehmens- und Strategieberatung McKinsey. Der promovierte Mathematiker ist Spezialist für Big Data Analytics und Leiter von McKinsey Analytics im Handels- und Konsumgütersektor.

Drittens: Neuronale Netze sind nicht deterministisch. Im Nachhinein lässt sich nicht nachvollziehen, warum sie zu den Ergebnissen gekommen sind. Hier mal ein Beispiel: Ein Foto zeigt eine Kuh und wird von einem neuronalen Netz auch problemlos als Kuh erkannt. Dann werden einfach ein paar Pixel geändert. Wir Menschen erkennen nach wie vor eine Kuh, aber das neuronale Netz sieht ein Auto. Es wird zwar daran geforscht, wie man so etwas umgehen kann, aber man weiß nicht, warum das so ist. Das heißt, man kann neuronale Netzen austricksen. Das macht sie fehleranfällig, auch für Cyberattacken.

Damit will ich nicht unnötig Untergangsphantasien beflügeln. Ein Risiko, was es nicht gibt: Die KI sagt nicht, dass es doch mal spannend wäre, wenn Menschen verdursten oder verhungern, und schaltet dann das Wasser ab.

Unternehmen und ihre Data Scientists müssen dafür Sorge tragen, dass sie den Stakeholdern die Ergebnisse ihres Analysemodells erklären können. Schon allein, um das Vertrauen der Öffentlichkeit gegenüber Algorithmen zu stärken. Explainable Artificial Intelligence (XAI) ist der dazugehörige Terminus, der versucht, Licht in die Black Box zu bringen.

Sie beschäftigen sich mit KI-Risikomanagement von Unternehmen. Was genau bedeutet das?

Wir beschäftigen uns allgemein mit Risiken und als Teilgebiet beschäftigen wir uns mit Risiken, die durch KI entstehen. Unser Schwerpunkt ist nicht, KI einzusetzen, um Risikomanagement zu betreiben. Unser Hauptanwendungsgebiet ist die Frage, wie man KI risikofrei einsetzen kann.

Bei KI haben wir es immer mit Daten und Digitalisierungsprozessen zu tun. Das geht schon bei Cybersecurity los, da brauchen wir noch gar nicht über KI zu reden. Bei Cybersecurity werden 90 Prozent der Risiken von Menschen verursacht. Weil wir auf irgendeinen falschen Link klicken, den uns irgendjemand per Mail geschickt hat. Schon ist mein Rechner und das Netzwerk infiziert.

Risikomanagement im Bereich KI heißt also auch bei uns, dass erstmal 90 Prozent der Hausaufgaben im Bereich Cybersecurity gemacht werden müssen. Der Rest besteht aus sehr spezifischen Problemen, wo der Einsatz von KI zu Qualitätsproblemen führen kann.

Was sind die Prinzipien des Risikomanagements?

Beim Risikomanagement innerhalb der KI gibt es mehrere Blöcke. Wie valide ist das Datenmodell hinter der KI? Daten können schmutzig sein, können einen gewissen Bias haben. Schon 1988 hatte eine Software einer medizinische Schule Aufsehen erregt, weil sie bei der Auswahl der Bewerber*innen zum Einstellungsgespräch Frauen und Menschen mit nicht-europäischen Namen benachteiligte. Das zeigt: Ich muss schauen, dass ich meine Systeme mit einem sauberen Datenset trainiere.

Die nächste Frage ist das Thema der analytischen Modelle, die ich nutze. Nutze ich das richtige Modell für die richtige Fragestellung? Sind die Ergebnisse nachvollziehbar, die ich aus dem Modell ziehe? Wenn sie nicht nachvollziehbar sind, sind sie in gewissen regulierten Bereichen wie etwa dem Finanzbereich gar nicht erst zulässig. Dann ist die Frage, ob ich die Modelle richtig implementiere. Da muss ich nicht nur ein Problem mit dem richtigen Modell adressieren, sondern auch die richtigen Menschen mit dem richtigen Modell arbeiten lassen. Es ist wichtig, genau zu entscheiden, an welcher Stelle Menschen nochmal über das Modell drüber schauen sollten. Man sollte sich die Frage stellen: Wer entscheidet, wann das KI-Modell dahingehend Bias-frei ist, sodass es angewandt werden kann? Hier müssen zwischen Fachkräften, Data Scientists und Verantwortlichen klare Regeln und Prozesse festgelegt werden, die sehr genau die Unternehmenswerte berücksichtigen.

Der nächste Block ist dann, wie ich mit den Ergebnissen umgehe, die eine KI auswirft. Welche Negativfolgen können für Betroffene oder Unternehmen entstehen? Es gilt, Entscheidungen auf Krisenfestigkeit zu überprüfen.

Das systematische Erfassen von Risiken ist in verschiedenen Industrien sehr unterschiedlich. In der Infrastruktur muss ich gewisse Bereiche von vornherein ausschließen, weil sie so kritisch sind, dass ich sie grundsätzlich schützen möchte und wenig KI einsetze. Da Unternehmen heutzutage oft über viele agile Einheiten und somit verteilte Entscheidungsfindung verfügen, sind Unternehmenswerte als Leitfaden wichtiger denn je. Je konkreter diese in Zusammenhang mit der Nutzung von KI gefasst werden, desto sicherer kann KI genutzt werden.

Wird KI immer wichtiger für Unternehmen?

Wir sind im Zentrum einer industriellen Revolution und haben den gesamten technologischen Fortschritt im Bereich Analytics, Digitalisierung und KI gerade erst begonnen. KI wird sukzessive zum Wettbewerbsvorteil. Und das sage ich nicht nur, sondern das ist auch das Ergebnis einer Umfrage unter knapp 1.900 Führungskräften, die wir vor Kurzem zum wiederholten Male durchgeführt haben. Über die Hälfte hat darin berichtet, dass sie mittels KI den Umsatz steigern könnten. Das ist enorm. Es geht kein Weg daran vorbei, dass sich Unternehmen die Frage stellen, wo ihnen KI helfen kann.

Das können wir Dir auch empfehlen

placeholder
placeholder