Soziale Medien haben unsere Kommunikation revolutioniert, doch sie tragen auch zur Verbreitung von Verschwörungstheorien und Fake-News bei. Und jetzt kommen auch noch große Sprachmodelle, gemeinhin als KI bekannt, ins Spiel. Das droht die Situation zu verschärfen. Denn KI-Chatbots ermöglichen eine neue Art der Kommunikation zwischen Mensch und Maschine, die sich wie ein echtes Gespräch anfühlen.
ChatGPT, Claude, Gemini oder Mistral geben auf Anfragen oft Antworten, die sehr korrekt klingen. Und oft stimmen sie sogar – aber eben nicht immer. Die Folge: KI-Entwickler:innen tüfteln stetig an neueren, noch besseren Modellen mit höherer Antwortgenauigkeit. Gleichzeitig versuchen Nutzer:innen bessere Anweisungen für die KI zu entwickeln, um genauere Antworten zu erhalten. Dafür gibt es sogar einen eigenen Namen: Prompt-Engineering.
„Doch bei all dem Hype um KI gibt es eine Frage, die wenig beachtet wird“; sagt der KI-Ethiker Markus Kneer von der Universität Graz. „Was ist eigentlich eine gelungene Kommunikation zwischen Menschen und KI?“. Diesem Thema widmet er sich in dem international besetzten Projekt „NIHAI – Normen in Sprachbasierter Mensch-KI-Interaktion“.
Studie mit 3000 Teilnehmer:innen
Es ist nämlich so: In Gesprächen mit Freunden, der Familie oder auch Fremden ist es für die meisten Menschen ok, wenn die Informationen nicht zu 100 Prozent stimmen. Bei KI-Systemen ist das anders: „Menschen stellen sehr hohe Anforderungen an Maschinen.“ Das hat das Forscher:innen-Team in einer Vorstudie mit mehr als 3000 Teilnehmer:innen herausgefunden. Die Frage, die Proband:innen gestellt wurde: „Stell dir vor, du bist am Flughafen und fragst am Schalter, von welchem Gate dein Flug nach Paris geht. Die Antwort lautet: Gate 42.“
Es gibt vier mögliche Szenarien:
A. Die Person am Schalter weiß es nicht und rät und die Antwort ist falsch.
B. Die Person sagt Gate 42, weil der Flug normalerweise von Gate 42 abfliegt – das kann aber falsch sein.
C. Die Person weiß es nicht, rät aber zufällig richtig.
D. Die Person weiß zu 100 Prozent, dass es Gate 42 ist, und die Antwort stimmt.
„Die meisten Teilnehmer:innen fanden die Antworten A und C, bei denen die Person rät, nicht gut“, erklärt der KI-Ethiker Kneer. Antwort D, bei der die Person die richtige Antwort weiß, wurde als gelungene Kommunikation bewertet. Bei Fall B wird es richtig interessant, sagt Kneer: „Selbst wenn die Antwort falsch war – solange die Person einen guten Grund für die Aussage hat, wird die Kommunikation als gelungen angesehen.“
Bei Menschen ist man also nachsichtig, wenn's mal nicht 100-prozentig passt. Und bei der KI? „Wenn diese Interaktionen mit einem Chatbot stattfinden, akzeptieren Menschen nur eine 100 Prozent faktisch richtige und wahrhaftige Information als gelungen“, erklärt der Forscher. Und wenn Menschen merken, dass ein Chatbot vielleicht sogar absichtlich falsche Infos gibt, ist das Vertrauen in die Maschine absolut dahin
Westlich geprägt
Aber das NIHAI-Projekt gräbt noch tiefer und schaut über den Tellerrand: Was ist mit kulturellen Unterschieden? Viel KI-Forschung und -Entwicklung ist nämlich ziemlich ‚WEIRD‘ – das steht für Western, Educated, Industrialized, Rich and Democratic. „Die Anwendungen sind oft auf eine westlich geprägte Gruppe zugeschnitten und auf indo-europäische Sprachen“, erklärt Kneer. „Das wirkt sich auch darauf aus, wie wir KI nutzen.“
Dieser Unterschied hat einen großen Einfluss auf den Umgang mit KI-Tools. „In unserem Projekt wollen wir auch herausfinden, wie wir es schaffen, dass KI-Kommunikation für möglichst viele Menschen, egal woher sie kommen oder welche Sprache sie sprechen, richtig gut und nützlich ist“, sagt der KI-Ethiker. Die Ergebnisse sollen dann in konkrete Handlungsempfehlungen für die Entwickler:innen dieser Tools umgesetzt werden.