Hier können Sie neue Beiträge via E-Mail abonnieren:

Sie werden zukünftig per E-Mail benachrichtigt, wenn wir einen neuen Beitrag veröffentlichen.

Wie entscheidungsfähig ist Künstliche Intelligenz?

 

Algorithmen erledigen heute bereits eine Vielzahl komplexer Aufgaben für uns. Werden sie uns eines Tages aber auch echte Entscheidungen abnehmen? Thomas Schnelle über die Heilsversprechen künstlicher Intelligenz, die Qual der Wahl und die Schwierigkeit, ein Pferd als solches zu erkennen.

Neulich im Bremer „Tatort“: Die Kommissare Lürsen und Stedefreund untersuchen den rätselhaften Unfalltod einer Start-Up-Unternehmerin. Verdächtig ist er deshalb, weil sich um den Wagen der Toten keinerlei Bremsspuren finden, das Lenkradschloss eingerastet ist und die Airbags nicht ausgelöst haben. Am Ende finden die Kommissare heraus, dass ein Computerprogamm, das vom Opfer verkauft werden sollte, den Unfall herbeigeführt hatte: Nachdem die Software erkannte, dass sie möglicherweise gelöscht werden würde, sorgte ihr einprogrammierter Selbstschutzmechanismus dafür, dass die Verantwortliche rechtzeitig tödlich verunglückte.

Klingt nach einer kruden Mischung aus Technikskepsis und Science Fiction? Mag sein. Tatsächlich aber investieren Militärs momentan bereits Milliarden in Künstliche Intelligenz (KI), die Ziele automatisch identifizieren und Flugzeuge selbsttätig steuern soll. Die australische Regierung lässt Zahlungen ihrer Wohlfahrtsbehörde von einer Software überprüfen und gegebenenfalls zurückfordern. Und rund um den Globus stellen sich Unternehmerinnen gerade die Frage, welche Aufgaben KI künftig in ihren Organisationen übernehmen könnte.

Und das sind viele. Denn zum einen vermögen Algorithmen unglaubliche Datenmengen zu verarbeiten. Zum anderen können sie sich selber immer weiter aufschlauen, indem sie permanent Erfahrungswerte sammeln, Beispiele analysieren und ihre Bewertungsmuster entsprechend verfeinern.

Echte Entscheidungen treffen aber können sie nicht. Nach unserer Definition liegt ein prägendes Merkmal von Entscheidungen in ihrer Kontingenz – der Möglichkeit also, unter mehreren Optionen auszuwählen. Menschliche Entscheiderinnen können dabei zum Beispiel freihändig Faktoren hinzuziehen, die im Entscheidungsprozess eigentlich gar nicht vorgesehen sind. So könnte die Sachbearbeiterin einer Versicherung eine Schadensregulierung spontan auch davon abhängig machen, wie lange die Versicherte bereits zahlende Kundin gewesen war – ein Umstand, der für die Beurteilung des Falles selbst völlig irrelevant ist, für das Unternehmen aber durchaus bedeutsam sein kann.

Künstliche Intelligenz aber trifft keine autonomen Entscheidungen, sondern folgt lediglich den mehr oder weniger breiten Pfaden, die Programmierer für sie angelegt haben. Auch der umsichtigste Softwaredesigner aber kann die Vielzahl von Umweltfaktoren, die auf Organisationen einwirken und möglicherweise mit Regelabweichungen beantwortet werden sollten, niemals vorhersehen, berücksichtigen und einprogrammieren. Darin liegt aus unserer Sicht eine entscheidende Fußfessel künstlicher Intelligenz.

Eine zweite: Was ein KI-System lernt, ist naturgemäß abhängig davon, mit welchen Trainingsdaten es gefüttert wird bzw. nach welchen Daten es selbsttätig weiter sucht. Die Auswahl des Lernmaterials für ein neuronales Netz aber ist genau so subjektiv wie die Entscheidung eines Menschen für ein bestimmtes Brillenmodell: Beides führt dazu, dass man gewisse Dinge auf eine bestimmte Art wahrnimmt, andere hingegen übersieht, auch wenn sie möglicherweise relevant sein könnten. An dieser Grundvoraussetzung ändert sich auch dadurch nichts, wenn ein KI-System darauf programmiert wird, selbst zusätzliches Lernmaterial zu suchen.

Was aber, wenn Künstliche Intelligenz sich eines Tages so intelligent weiterentwickeln würde, dass sie ihren ursprünglich intendierten Algorithmus verlässt? Was, wenn sie also so klug wird, dass sie als Superhirn über sich (und uns) hinauswächst und die Intentionen der Programmierer aus eigenem Antrieb verändert?

Erstens: Aus heutiger Sicht gibt es keinerlei Anzeichen, dass diese vielfach strapazierte Vision tatsächlich eines Tages Wirklichkeit werden könnte. Alles, was ein KI-System tut, geht letztlich auf ein von Menschen geschriebenes Programm zurück. Allerdings zeigt sich schon in den Anfängen, wie problembehaftet dieses so genannte Deep Learning sein kann. Denn ein KI-Hirn, das Unmengen von Daten sichtet und gewichtet, ist eine Black Box, deren Entscheidungswege für uns nur mit großem Aufwand nachvollziehbar sind. Und das gibt durchaus Anlass zur Sorge, wie eine Forschergruppe des Heinrich-Hertz-Institut HHI in Berlin darlegte. Die Forscher hatten neuronale Netze zur Bilderkennung analysiert und dabei Erstaunliches entdeckt: So verließ sich eine Software, die Fotos von Pferden erkennen sollte, bei ihrer Suche nicht etwa auf die Bildinhalte, sondern auf Copyright-Angaben, die auf Pferdeforen hindeuteten (keine ganz dumme, aber eben auch keine wirklich kluge “Entscheidung”). Eine andere Künstliche Intelligenz, die Züge identifizieren sollte, orientierte sich hauptsächlich an Gleisen und Bahnsteigkanten. Loks und Waggons selbst hielt das Netz nicht für besonders wichtig.

Fazit: Künstliche Intelligenz ist verblüffend, mitunter verblüffend beschränkt. Lässt man sie aber ungehindert gewähren, können auf maschinelle Fehltritte schnell menschliche Fehler folgen. Bei Bilderkennungssoftwares mögen solche Fehler kurios, im Militär, Medizin oder maschineller Produktion aber können sie verheerend wirken.

Künstliche Intelligenz eröffnet neue Einfluss-Ressourcen – für Akteure, die bisher nicht im Spiel waren.

Die Umbrüche, die durch Digitalisierung und rechnergestützte Intelligenz ausgelöst werden, sind gewaltig. Sie entstehen aber nicht dadurch, dass künstliche Intelligenz Entscheidungsmacht erlangt, die über das hinausgeht, was Menschen in sie hinein programmiert haben. Sie entstehen vielmehr dadurch, dass die Digitalisierung neue Macht- und Einflussressourcen zur Verfügung stellt. Und dass Akteure über diese Ressourcen verfügen, die solche Macht bislang nicht hatten oder überhaupt erst neu ins Spiel kommen. Und andere verlieren, einige etwas, andere dramatisch. So dezimiert Amazon das Einzelhandelssegment und zwingt Hersteller, sich des Amazon-Vertriebskanals zu bedienen. Das verschiebt die Machtverhältnisse auf den Märkten. Berufsgruppen werden dezimiert, wenn ihre Arbeit durch Algorithmen ganz oder teilweise ersetzt werden kann. So zum Beispiel, wenn Schadensmeldungen heute bei Versicherungen von Algorithmen statt Sachbearbeitern beschieden werden. Das verschiebt die Machtverhältnisse in den Unternehmen.

Selbst im fehlerfreien Normalbetrieb verschiebt der wachsende Einfluss der Algorithmen unweigerlich die Macht in den Organisationen und der Gesellschaft. Indirekt geschieht dies dadurch, dass Akteure ihre Aktionen und Entscheidungen an den vermuteten Präferenzen der Algorithmen ausrichten (ein banales Beispiel hierfür sind die Versuche von Webdesignern, ihre Inhalte via Search Engine Optimization besser vom Google-Algorithmus finden zu lassen). Und ganz direkt gewinnen naturgemäß all jene an Wirkmacht, die die Algorithmen programmieren, trainieren und analysieren (lassen) können.

Platt gesagt: Wer Künstliche Intelligenz (und Zugriff auf sie) hat, besitzt künftig tendenziell mehr Macht.

 

Autor


Thomas Schnelle

ist Partner bei Metaplan.

 

Wir danken dem Künstler Armin Chodzinski für die Erlaubnis, diesen Text mit einer seiner Arbeiten zu bereichern.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.