Chatten mit KI: Wahrscheinliche Halbwahrheiten

Hallo Finn,

​​Chatbots haben keinen guten Ruf. Meist begegnet man ihnen, wenn man sich von einem Unternehmen Support wünscht und stattdessen nichtssagende, aber überaus höfliche Bot-Antworten erhält, die nur selten deeskalierend wirken. Doch ChatGPT, OpenAIs neues KI-Sprachmodell in Form eines Chatbots, ist beliebt: Es wurde schon nach wenigen Tagen von mehr als einer Million Nutzer:innen verwendet. ChatGPT lässt sich über ein Textfeld leicht bedienen und gibt auch auf schwierige Fragen überaus plausible Antworten. Es kann außerdem Programmcode generieren, Marketingstrategien vorschlagen, Raptexte schreiben und lässt sich auch als – äußerst intransparente – Suchmaschine verwenden. 

Es ist schwer, angesichts dieser Möglichkeiten nicht ins Staunen zu geraten. Sam Altman, OpenAIs CEO, träumt sogar schon vom Ende der Lohnarbeit. Dabei hat sich trotz des Hypes um ChatGPT an der Funktionsweise großer KI-Sprachmodelle grundsätzlich nichts geändert. Sie bleiben stochastische Papageien: Maschinen, die aus vorhandenen Texten maximal wahrscheinliche Wort- und Satzkombinationen ableiten und maximal durchschnittliche Texte schreiben. Die Herausforderung wird sein, solche (durchaus nützlichen) Texte sinnvoll in unsere Arbeit zu integrieren – und gleichzeitig Antworten darauf zu finden, wie wir mit algorithmisch verzerrten Darstellungen, Urheberschaft und dem hohen Energieverbrauch von Modellen wie ChatGPT umgehen wollen. 

Darüber hinaus ist auf ChatGPTs Aussagen nicht immer Verlass. Nach seinen rein stochastischen Spielregeln gibt es keine richtigen oder falschen Antworten. Ein gründlicher Faktencheck wird deshalb in Zukunft nur noch wichtiger werden und geradezu forensische Textkompetenz erfordern. Auf der Programmierplattform Stack Overflow wurden von ChatGPT produzierte Antworten bereits vorübergehend verboten, weil sie häufig fehlerhaft waren, aber äußerst überzeugend wirkten und schnell in großer Menge produziert wurden.

Das weist auf ein weiteres mögliches Problem hin: Die Qualität von Sprachmodellen hängt ganz maßgeblich von der Qualität der Daten ab, die wir ihnen zur Verfügung stellen. Wenn also Online-Texte zu einem immer größeren Anteil aus KI-generierten Klischees und Halbwahrheiten bestehen, könnte das nicht nur uns, sondern auch zukünftigen Sprachmodellen schaden. Text-zu-Bild-Generatoren können jedenfalls mit ihren eigenen Produkten bisher nicht viel anfangen. Erst in der Interaktion mit menschengemachten Inhalten werden sie interessant. Vielleicht brauchen KI-Anwendungen uns am Ende mehr als wir sie.

von Lea Beiermann

Personal Growth

Prompt Engineering: Die Sprache der KI-Generatoren

ChatGPT ist das jüngste Beispiel für die atemberaubenden Fortschritte, die KI-Generatoren im Laufe der vergangenen Jahre gemacht haben. Ausgehend von einfachen Texteingaben, sogenannten Prompts, können die Programme in Windeseile Text, Bilder, Programmcode und in Ansätzen sogar schon Videos und Musik erstellen. Möglich wird das durch Natural Language Processing (NLP) – der Fähigkeit von Computern, natürliche Sprache zu verarbeiten.

Doch so leicht das im ersten Moment klingen mag, hängt die Qualität der Ergebnisse stark von der Präzision der eingegebenen Sprachbefehle ab. Das Konzept des Prompt Engineering nimmt sich dieser Tatsache an: Ziel ist es, Eingaben zu finden, die erwünschte und zudem qualitativ hochwertige Ergebnisse liefern.

Hier sind drei Tipps aus dem Prompt Engineering, mit denen deine KI-generierten Kreationen besser gelingen:

  1. Halte es einfach: Komplexe und verworrene Prompts sind für KI-Generatoren schwer zu verstehen und können zu unerwarteten oder ungenauen Antworten führen. Konzentriere dich stattdessen auf die Erstellung klarer und prägnanter Aufforderungen. Hilfreich kann dabei auch die Befehlsform sein. Im Imperativ neigen Menschen automatisch zu einfachen Formulierungen.

  2. Sei maximal spezifisch: Vage Aufforderungen führen zu vagen Antworten oder sogar starken Abweichungen. Je spezifischer die Prompts, desto besser. Bei KI-Bildgeneratoren kann es zum Beispiel hilfreich sein, bestimmte Kunststile oder genaue Kameramodelle und Objektivbrennweiten anzugeben, wenn man ein fotorealistisches Bild erzeugen möchte.

  3. Testen und verfeinern: Wenn das Ergebnis nicht deinen Erwartungen entspricht, passe einzelne Elemente deiner ursprünglichen Texteingabe an und vergleiche das Resultat. Viele KI-Generatoren erlauben dir auch direkt deine Eingabe zu verfeinern oder Ergebnisse zu verbessern. So kommst du schrittweise zum gewünschten Ergebnis.

von Finn Blug

Dive Deeper

Alles überall auf einmal

Auch in puncto Kreativität können KI-Systeme mittlerweile den Menschen schlagen und lassen sich zu umfassenden Produktivitätstools machen. Das birgt allerdings auch Herausforderungen. 


von Miriam Meckel

Jetzt lesen

Und zuletzt:

Mit Prompt-Analysetools, wie Latentspace, oder Datenbanken, wie Prompthero und Lexica, kann man sich Inspiration für gute KI-Prompts holen.

About us

ada ist eine organisationsübergreifende Community, die den Weg in eine nachhaltige, digitale Zukunft ebnet. Im Rahmen unseres ada | fellowships erlernen die Fellows relevante Digital- und Zukunftskompetenzen, entwickeln in organisationsübergreifenden Teams neue Ideen und wenden diese praktisch auf reale Herausforderungen ihrer Organisation an. Dabei werden die Fellows Teil einer großen, branchenübergreifenden Community, die kollaborativ und co-kreativ lernt und so aktiv die Zukunft gestaltet. Denn Wachstum geschieht selten allein!

Wenn du mehr über unser einjähriges ada | fellowship erfahren, einen Testzugang zu unserer Plattform haben möchtest oder Interesse an unseren zwei großen Tech Events hast, melde dich gern unter info@join-ada.com oder schau dich auf unserer Homepage um. Wir freuen uns und helfen dir gerne weiter!

Wenn du Fragen oder Anregungen hast: Wir freuen uns auf Feedback !