Zum Hauptinhalt der Webseite
Künstliche Intelligenz

Eine Blackbox verändert die Organisation

  • Thomas Schnelle
  • Mittwoch, 14. Juli 2021
© Lubitz + Dorner

KI ist ein Treiber digitaler Transformation. Doch können uns Algorithmen wirklich Entscheidungen abnehmen – oder steuern sie nur unser Entscheidungsverhalten? 

Die Umbrüche, die durch Digitalisierung und Künstliche Intelligenz ausgelöst werden, sind gewaltig. Wir behaupten: Sie entstehen nicht dadurch, dass rechnergestützte Intelligenz Entscheidungsmacht erlangt, die über das hinausgeht, was Menschen in sie hineinprogrammiert haben. Sie entstehen vielmehr dadurch, dass KI neue Macht- und Einflussressourcen zur Verfügung stellt, die Entscheidungsprozesse nachhaltig verändern.

Ein Chatbot, der Gedichte schreibt

In der Zentrale des größten chinesischen E-Commerce-Unternehmens JD.com in Shanghai stehen die Maschinen nie still. 200 000 Aufträge werden hier täglich abgewickelt – aber nach den vier Mitarbeiterinnen in der JD-Zentrale muss man auf den 40 000 Quadratmetern Fläche suchen. Denn von der Bestellung bis zum Versand übernehmen bei JD.com Roboter das Geschäft: Sie notieren Bestellungen, pflücken Ware aus den Regalen und heben sie auf Förderbänder. Für die persönliche Note sorgt ein Chatbot, der angeblich Gedichte verfassen kann – ein paar persönliche Angaben über die Kundin reichen aus. 

Klingt nach Science-Fiction? Ist aber Realität! KI-Systeme werden inzwischen in nahezu allen Branchen von Landwirtschaft bis Verwaltung eingesetzt – und rund um den Globus stellen sich Unternehmerinnen die Frage, welche Aufgaben Künstliche Intelligenz künftig in ihren Organisationen noch übernehmen könnte. 

Skeptiker wie Befürworter sind sich darin einig, dass KI die wirkmächtigste Technologie ist, die uns heute zur Verfügung steht. Zum Einen vermögen Algorithmen unglaubliche Datenmengen zu verarbeiten. Zum Anderen können sie sich selber immer weiter aufschlauen, indem sie permanent Erfahrungswerte sammeln, Beispiele analysieren und ihre Bewertungsmuster entsprechend verfeinern. Organisationen sammeln inzwischen so viele Daten, dass sie selbstlernende KI-Anwendungen problemlos mit ausreichend Trainingsstoff füttern können. Auch an der entsprechenden Rechenleistung, um die riesigen Datenmassen zu verarbeiten, mangelt es nicht mehr.

Der Zwang zur Vorauswahl ist die Fußfessel automatisierter Entscheidungsprozesse

Aber bei aller Algorithmusliebe gibt es gibt einen blinden Fleck in automatisierten Entscheidungsprozessen: Echte, autonome Entscheidungen kann selbst die schlaueste KI leider nicht für uns treffen. Nach unserer Definition liegt ein prägendes Merkmal von Entscheidungen in ihrer Kontingenz – der Möglichkeit also, unter mehreren Optionen auszuwählen. Ein Kernelement von Entscheidungen in Organisationen ist demnach, Faktoren gegeneinander abzuwägen, und gegebenenfalls auch „freihändig“ neue Faktoren hinzuzuziehen, die im Entscheidungsprozess eigentlich gar nicht vorgesehen waren. So könnte die Sachbearbeiterin einer Versicherung eine Schadensregulierung spontan auch davon abhängig machen, wie lange die Versicherte bereits zahlende Kundin gewesen war – ein Umstand, der für die Beurteilung des Falles selbst völlig irrelevant ist, für das Unternehmen aber durchaus bedeutsam sein kann.

Künstliche Intelligenz aber trifft keine autonomen Entscheidungen, sondern folgt lediglich den mehr oder weniger breiten Pfaden, die Programmierer für sie angelegt haben. Auch der umsichtigste Softwaredesigner kann die Vielzahl von Umweltfaktoren, die auf Organisationen einwirken und möglicherweise mit Regelabweichungen beantwortet werden sollten, niemals vorhersehen, berücksichtigen und einprogrammieren. Darin liegt aus unserer Sicht eine entscheidende Fußfessel Künstlicher Intelligenz.

Da es Menschen sind, die Algorithmen programmieren, werden die Algorithmen auch die gleichen blinden Flecken und Wissenslücken haben.

Thomas Schnelle

Auch im Quellcode steckt Bias

Was ein KI-System lernt, ist naturgemäß abhängig davon, mit welchem Lernstoff es gefüttert wird – beziehungsweise, nach welchen Daten es selbsttätig sucht. Die Auswahl dieses Materials für ein neuronales Netz ist aber genauso subjektiv wie die Entscheidung eines Menschen für ein bestimmtes Brillenmodell: Beides führt dazu, dass man die Dinge auf eine bestimmte Art und Weise wahrnimmt.

Dass KI-basierte Entscheidungen rationaler und objektiver werden, ist somit leider nicht sehr wahrscheinlich. Dass KI das Entscheidungsverhalten in Organisationen in Zukunft massiv beeinflussen wird und damit auch Macht und Einfluss umverteilt, dafür umso mehr. 

Da es Menschen sind, die Algorithmen programmieren, werden die Algorithmen auch die gleichen blinden Flecken und Wissenslücken haben. Auf die Weise können Programme entstehen, die rassistische oder diskriminierende Entscheidungen reproduzieren. Dabei müssen die Entwickler selbst nicht bewusst eine rassistische Einstellung pflegen. Es genügt eine Lücke im Problembewusstsein. So kam es etwa zur Programmierung von Touchpads, die nur für Personen mit heller Hautfarbe funktionieren – weil das Programm mit Hell/Dunkel-Unterscheidungen arbeiten. Den Programmierer*innen und Testenden fiel das Problem zunächst nicht auf. Kontakt mit People of Color entstand erst nach Veröffentlichung des Produkts.

Hier handelt es sich noch nicht um einen selbstlernenden Algorithmus. Aber die Probleme sind die gleichen, da Menschen durch das Schreiben des Codes entscheiden, was beobachtet und wovon gelernt werden soll – und was damit auch ausgeblendet wird. Da KI immer mehr Entscheidungsmacht eingeräumt wird, wächst die Gefahr, dass soziale Probleme reproduziert werden. „Machine Bias“ nennt sich diese Schwachstelle von KI-Systemen.

Die Entscheidungs(um)wege der Blackbox KI 

Ein KI-Hirn, das Unmengen von Daten sichtet und gewichtet, ist eine Blackbox, deren Entscheidungswege nur mit großem Aufwand nachvollziehbar sind. Im Grunde ist ein weiteres Programm notwendig, welches die durch die KI getroffenen Entscheidungen beobachtet und für die menschlichen Nutzer*innen verständlich abbildet. 

Dabei kommen mitunter große Überraschungen zutage: Eine Forschergruppe des Heinrich-Hertz-Instituts (HHI) in Berlin hat etwa analysiert, wie zur Bilderkennung eingesetzte neuronale Netze funktionieren – und dabei Erstaunliches entdeckt. So verließ sich eine Software, die Fotos von Pferden erkennen sollte, bei ihrer Suche nicht etwa auf die Bildinhalte, sondern auf Copyright-Angaben, die auf Pferdeforen hindeuteten. Dass es für Menschen offensichtlich ist, dass es auch Pferdebilder ohne Copyright-Angaben oder Pferdeforenbilder ohne Pferde geben kann (selten, aber möglich), und besser schauen sollte, ob irgendwo auf dem Bild die Form eines Unpaarhufers zu erkennen ist, macht dies noch lange nicht für die Software naheliegend. Verschwommene Fotos, potentiell verdeckte Schlüsseleigenschaften und fehlende Kontraste zur Umgebung treiben die Fehlerquote der Software in die Höhe. Sie orientiert sich also an Werten, die sicher erkannt werden können: Schriftzeichen.

Was für Bilderkennung gilt, trifft auch auf Machine Learning im Allgemeinen zu: Das Programm sucht den Weg des geringsten Widerstands bei möglichst hoher Erfolgsquote. Was bedeutet das nun aber für KI basierte Entscheidungen und ihre Legitimation und Akzeptanz in Organisationen?

Mehr zum Thema

Digitalisierung im Vertrieb

Wer über die KI entscheiden kann, hat die Macht

Künstliche Intelligenz führt somit nicht automatisch zu einem höheren Maß an Transparenz oder rationaler Logik in organisationalem Entscheidungsverhalten, sondern sorgt vielmehr vor allem für eine Umverteilung der Macht bei Entscheidungsprozessen. Gerade weil KI für die meisten eine Blackbox ist, gibt sie Akteuren Einfluss-Ressourcen, die vielleicht bisher nicht einmal im Spiel waren. Denn es gewinnen insbesondere all jene an Wirkmacht, die die Algorithmen programmieren, trainieren und analysieren (lassen) – zum Beispiel Mitarbeiterinnen, die für die neuen Techniken verantwortlich sind.

Denjenigen, die datenbasierte Entscheidungen argumentativ für ihr Vorhaben nutzen wollen, kommt schlicht zugute, dass vielen die Entscheidungswege der KI gar nicht klar sind. Wer glaubhaft vermitteln kann, die Blackbox KI durchdrungen zu haben, ist dabei offensichtlich im Vorteil. So kann der argumentative Rückbezug auf KI in Entscheidungsprozessen Widerstände reduzieren und Debatten einsparen. Der Computer entscheide schließlich auf Basis von Daten, und Zahlen sind als Legitimationsmittel ziemlich unschlagbar.

Man könnte auch sagen: Wer Künstliche Intelligenz (und Zugriff auf sie) hat, besitzt künftig tendenziell mehr Macht in Organisationen – unabhängig davon, welcher Algorithmus die Entscheidungen steuert. 

Zumindest im Zentrallager von JD.com in Shanghai scheinen die Maschinen die Macht bereits übernommen zu haben. Wie es sich wohl anfühlt, als einer von nur vier Menschen durch die Hallen zu laufen? Gründer Richard Lui sagt: „Ich hoffe, dass wir eines Tages zu 100 Prozent von Robotern und KI betrieben werden.“ Aber noch stößt sein System spätestens am nächsten Ortsschild an seine Grenzen. Denn da kommt der autonome Lastwagen nicht mehr alleine weiter. In der Stadt darf nur ein Mensch lenken.

Autor

Dr. Thomas Schnelle

beobachtet insbesondere die Wirkung der Digitalisierung auf Organisationen in der Pharma-Industrie.

LinkedIn® Profil anzeigen