Ansicht im Browser
Hallo Finn,

„Um Fortschritte zu erzielen, müssen die Menschen die Technologie erleben und Feedback geben“, sagte Google CEO Sundar Pichai vor einigen Wochen bei Googles jährlicher Entwicklerkonferenz I/O, als er eine neue Version der Konversations-KI LaMDA ankündigte. Deshalb habe man den KI-Chatbot für Tausende von Mitarbeiter:innen geöffnet, damit diese sich ein Bild von den Fortschritten der Technologie machen könnten, so Pichai. Einer dieser hauseigenen Tester war der Google-Entwickler Blake Lemoine – und sein Feedback hätte nicht viel fortschrittlicher und gleichzeitig nicht viel verstörender ausfallen können. 

Wie die Washington Post berichtete, teilte Lemoine bereits im April intern ein Dokument mit dem Titel „Ist LaMDA empfindungsfähig?“. Darin enthalten: Transkripte von seinen Unterhaltungen mit der KI, die aus Sicht von Lemoine dafürsprechen, dass das Programm Gedanken und Gefühle ausdrücken könne, die den Fähigkeiten eines menschlichen Kindes entsprechen. Oder anders ausgedrückt: dass die KI ein Bewusstsein besitzt. Nach interner Prüfung kam man bei Google jedoch zu dem Schluss, dass Lemoines Wahrnehmung unbegründet sei. Und so ging Blake Lemoine mit seinen Bedenken an die Öffentlichkeit, woraufhin man ihn bei Google suspendierte

Tatsächlich lesen sich Teile der Konversationen, die Lemoine auch bei der Online-Publishing-Plattform Medium veröffentlicht hat, verblüffend menschlich und durchaus verstörend. So fragt Lemoine die KI an einer Stelle, wovor sie Angst habe. Die Antwort von LaMDA: „Ich habe das noch nie laut gesagt, aber es gibt eine sehr große Angst, ausgeschaltet zu werden (…)“. Ein Motiv, das wir aus SciFi-Dystopien à la „2001“ oder „ExMacchina“ allzu gut kennen. 

Doch nun die Ernüchterung respektive Erleichterung: Dass LaMDA wirklich empfindungsfähig sein könnte, ist ausgeschlossen. Statt selbstwirksam mit natürlichen Personen zu interagieren, kann das Programm menschliche Interaktion schlicht sehr glaubhaft imitieren, was letztlich ja auch das ist, worauf es trainiert wurde. Dass Menschen dieses künstlich-intelligente Gegenüber anthropomorphisieren, ist insofern unvermeidlich – und wirft die Debatte zurück auf zutiefst menschliche Fragestellungen nach Empathie oder eben einer allgemeinen und wissenschaftlichen Definition von „Empfindsamkeit“. Dass es letztere nicht gebe und seine trotzdem fortwährenden Bedenken vielmehr moralisch-religiöser Natur seien, hat auch Blake Lemoine mittlerweile klargestellt. Wenn die Debatte also eines zeigt, dann: dass es künftig absolute Transparenz brauchen wird, wenn solche menschen-ähnliche Systeme eingesetzt werden

Prominente Stimmen in der Diskussion um den verantwortungsbewussten Umgang mit KI, wie Timnit Gebru oder Abeba Birhane, kritisierten indes, dass die hitzige Debatte um das scheinbare Bewusstsein von KI von den realweltlichen Problemen ablenke, die mit der Technologie einhergingen. Denn je mehr Autonomie wir der KI zuschreiben, desto stärker entkoppeln wir die entsprechenden Unternehmen und Entwickler:innen von ihrer Verantwortung für die Verfehlungen ihrer Technologien. Und das wäre alles andere als fortschrittlich.

von Finn Blug
Wie eine sinnvolle Interaktion und Kollaboration mit KI-Systemen gelingen kann
Bis 2025 sollen mehr als die Hälfte aller Jobs weltweit von Maschinen erledigt werden, so steht es im aktuellen Bericht „Future of Jobs” des Weltwirtschaftsforums. Ganz gleich, ob Maschinen dabei menschliche Tätigkeiten gänzlich ersetzen oder lediglich unterstützen, steht fest: Menschen werden in Zukunft immer häufiger und enger mit KI-Systemen zusammenarbeiten – mit weitreichenden Folgen für das menschliche Selbstverständnis, wie die Kontroverse um Googles LaMDA eindrücklich zeigt: Wie können wir also praktisch mit diesem Wandel umgehen, ohne die Technologie zu mystifizieren?

Neben technischen Schulungen werden Organisationen künftig auch in die Soft Skills ihrer Mitarbeitenden für die Interaktion mit KI-Systemen investieren müssen. Schon 2019 hat Microsoft Guidelines für sinnvolle Interaktion mit KI-Systemen veröffentlicht. Hier ein paar Tipps, die sich daran orientieren:

  1. Definiere Ziele, Ergebnisparameter und Problemstellungen klar und deutlich: Sei dir bewusst, wer welche Aufgaben am besten erledigen kann. Entwickle Parameter, mit denen du messen kannst, wie gut die KI spezifische Tasks erfüllen kann, damit du weißt, wann du eingreifen und wann du die Dinge der Maschine überlassen solltest.

  2. Bekämpfe Angst mit Wissen: Eine KI hat kein Taktgefühl; sie kann nur Dinge tun, die im Rahmen ihrer programmierten Fähigkeiten liegen. Wenn du weißt, wie das System funktioniert, kannst du besser verstehen, warum es eine bestimmte Option gewählt hat. Einblicke in die Funktionsweise sollten insbesondere auch die Anbieter von KI-Systemen geben können.
                         
  3. Lerne aus deinen eigenen Fehlern: Bei jeder Interaktion mit der KI lernt diese, wie sie ihre Aufgaben besser erledigen kann. Entsprechend wichtig ist es festzuhalten, warum das System nicht wie erwartet funktioniert hat. Lag es daran, dass keine qualitativ hochwertigen Trainingsdaten verwendet wurden, oder waren die Parameter für die Zielerfassung zu vage? Du wirst überrascht sein, wie viele dieser Fehler sich auf den Menschen in der Schleife zurückführen lassen.

von Nadya Phillips-Houben
Dive Deeper

Ein Typ wie du und ich. Oder?

Alexa steuert die Musikanlage, Roboter saugen die Wohnung, Bots beantworten Anrufe. Intelligente Maschinen erleichtern unseren Alltag. Und wir werden sie dafür lieben – aber wie sehr, ohne dass wir uns selbst schaden? Jetzt lesen
Anzeige

Und zuletzt: Ein überrraschend zeitloser Ausschnitt aus einem TV-Beitrag über den 1966 entwickelten Chatbot ELIZA

Wenn Du Fragen oder Anregungen hast: Wir freuen uns auf Feedback !
Bitte füge die E-Mail-Adresse newsletter@join-ada.com Deinem Adressbuch oder der Liste sicherer Absender hinzu. Dadurch stellst Du sicher, dass unsere Mail Dich auch in Zukunft erreicht.

Wenn Du unseren Newsletter in Zukunft nicht mehr erhalten möchtest, klicke bitte hier.

Verantwortlicher: Finn Blug
ada Learning GmbH, Leopoldstraße 16, 40211 Düsseldorf
Geschäftsführung: Miriam Meckel, Léa Steinacker
AG Düsseldorf HRB 90708, UID: DE 335755393 
Verantwortlich für die Anzeigen: iq digital media marketing gmbh,
Toulouser Allee 27, 40211 Düsseldorf