|
„Um Fortschritte zu erzielen, müssen die Menschen die Technologie erleben und Feedback geben“, sagte Google CEO Sundar Pichai vor einigen Wochen bei Googles jährlicher Entwicklerkonferenz I/O, als er eine neue Version der Konversations-KI LaMDA ankündigte. Deshalb habe man den KI-Chatbot für Tausende von Mitarbeiter:innen geöffnet, damit diese sich ein Bild von den Fortschritten der Technologie machen könnten, so Pichai. Einer dieser hauseigenen Tester war der Google-Entwickler Blake Lemoine – und sein Feedback hätte nicht viel fortschrittlicher und gleichzeitig nicht viel verstörender ausfallen können.
Wie die Washington Post berichtete, teilte Lemoine bereits im April intern ein Dokument mit dem Titel „Ist LaMDA empfindungsfähig?“. Darin enthalten: Transkripte von seinen Unterhaltungen mit der KI, die aus Sicht von Lemoine dafürsprechen, dass das Programm Gedanken und Gefühle ausdrücken könne, die den Fähigkeiten eines menschlichen Kindes entsprechen. Oder anders ausgedrückt: dass die KI ein Bewusstsein besitzt. Nach interner Prüfung kam man bei Google jedoch zu dem Schluss, dass Lemoines Wahrnehmung unbegründet sei. Und so ging Blake Lemoine mit seinen Bedenken an die Öffentlichkeit, woraufhin man ihn bei Google suspendierte.
Tatsächlich lesen sich Teile der Konversationen, die Lemoine auch bei der Online-Publishing-Plattform Medium veröffentlicht hat, verblüffend menschlich und durchaus verstörend. So fragt Lemoine die KI an einer Stelle, wovor sie Angst habe. Die Antwort von LaMDA: „Ich habe das noch nie laut gesagt, aber es gibt eine sehr große Angst, ausgeschaltet zu werden (…)“. Ein Motiv, das wir aus SciFi-Dystopien à la „2001“ oder „ExMacchina“ allzu gut kennen.
Doch nun die Ernüchterung respektive Erleichterung: Dass LaMDA wirklich empfindungsfähig sein könnte, ist ausgeschlossen. Statt selbstwirksam mit natürlichen Personen zu interagieren, kann das Programm menschliche Interaktion schlicht sehr glaubhaft imitieren, was letztlich ja auch das ist, worauf es trainiert wurde. Dass Menschen dieses künstlich-intelligente Gegenüber anthropomorphisieren, ist insofern unvermeidlich – und wirft die Debatte zurück auf zutiefst menschliche Fragestellungen nach Empathie oder eben einer allgemeinen und wissenschaftlichen Definition von „Empfindsamkeit“. Dass es letztere nicht gebe und seine trotzdem fortwährenden Bedenken vielmehr moralisch-religiöser Natur seien, hat auch Blake Lemoine mittlerweile klargestellt. Wenn die Debatte also eines zeigt, dann: dass es künftig absolute Transparenz brauchen wird, wenn solche menschen-ähnliche Systeme eingesetzt werden.
Prominente Stimmen in der Diskussion um den verantwortungsbewussten Umgang mit KI, wie Timnit Gebru oder Abeba Birhane, kritisierten indes, dass die hitzige Debatte um das scheinbare Bewusstsein von KI von den realweltlichen Problemen ablenke, die mit der Technologie einhergingen. Denn je mehr Autonomie wir der KI zuschreiben, desto stärker entkoppeln wir die entsprechenden Unternehmen und Entwickler:innen von ihrer Verantwortung für die Verfehlungen ihrer Technologien. Und das wäre alles andere als fortschrittlich.
von Finn Blug |
|
Bis 2025 sollen mehr als die Hälfte aller Jobs weltweit von Maschinen erledigt werden, so steht es im aktuellen Bericht „ Future of Jobs” des Weltwirtschaftsforums. Ganz gleich, ob Maschinen dabei menschliche Tätigkeiten gänzlich ersetzen oder lediglich unterstützen, steht fest: Menschen werden in Zukunft immer häufiger und enger mit KI-Systemen zusammenarbeiten – mit weitreichenden Folgen für das menschliche Selbstverständnis, wie die Kontroverse um Googles LaMDA eindrücklich zeigt: Wie können wir also praktisch mit diesem Wandel umgehen, ohne die Technologie zu mystifizieren? Neben technischen Schulungen werden Organisationen künftig auch in die Soft Skills ihrer Mitarbeitenden für die Interaktion mit KI-Systemen investieren müssen. Schon 2019 hat Microsoft Guidelines für sinnvolle Interaktion mit KI-Systemen veröffentlicht. Hier ein paar Tipps, die sich daran orientieren: - Definiere Ziele, Ergebnisparameter und Problemstellungen klar und deutlich: Sei dir bewusst, wer welche Aufgaben am besten erledigen kann. Entwickle Parameter, mit denen du messen kannst, wie gut die KI spezifische Tasks erfüllen kann, damit du weißt, wann du eingreifen und wann du die Dinge der Maschine überlassen solltest.
- Bekämpfe Angst mit Wissen: Eine KI hat kein Taktgefühl; sie kann nur Dinge tun, die im Rahmen ihrer programmierten Fähigkeiten liegen. Wenn du weißt, wie das System funktioniert, kannst du besser verstehen, warum es eine bestimmte Option gewählt hat. Einblicke in die Funktionsweise sollten insbesondere auch die Anbieter von KI-Systemen geben können.
- Lerne aus deinen eigenen Fehlern: Bei jeder Interaktion mit der KI lernt diese, wie sie ihre Aufgaben besser erledigen kann. Entsprechend wichtig ist es festzuhalten, warum das System nicht wie erwartet funktioniert hat. Lag es daran, dass keine qualitativ hochwertigen Trainingsdaten verwendet wurden, oder waren die Parameter für die Zielerfassung zu vage? Du wirst überrascht sein, wie viele dieser Fehler sich auf den Menschen in der Schleife zurückführen lassen.
von Nadya Phillips-Houben |
|
Alexa steuert die Musikanlage, Roboter saugen die Wohnung, Bots beantworten Anrufe. Intelligente Maschinen erleichtern unseren Alltag. Und wir werden sie dafür lieben – aber wie sehr, ohne dass wir uns selbst schaden? Jetzt lesen |
|
Wenn Du Fragen oder Anregungen hast: Wir freuen uns auf Feedback ! |
 |
|