Themen des Artikels
Um Themen abonnieren und Artikel speichern zu können, benötigen Sie ein Staatsanzeiger-Abonnement.Meine Account-Präferenzen
Forschung zu Metaphern für KI: Vom Fleischwolf und der Zaubertinte

Journalistin Anna Henschel hat mit Metaphern für Künstliche Intelligenz und Machine Learning untersucht.
Alexander Walberg, Grafiken: porpuri, maryicons, irasutoya, sripdesigns, nadya-bilqis via Canva.com)Tübingen. Ein kurzer Ausflug in das Jahr 1955: In Dartmouth in den USA sitzt ein junger Informatiker an einem Fördermittelantrag für den nächsten Sommer. John McCarthy will sich mit ein paar Kollegen einem ganz bestimmten Thema widmen und geht davon aus, dass zehn Wissenschaftler in zwei Monaten ordentlich Fortschritte machen können – bei einem Thema, für das er den Begriff „artificial intelligence“ in den Antrag schreibt.
Siebzig Jahre später ist klar: Künstliche Intelligenz ist kein Sommerprojekt für Informatiker. „Das Thema beeinflusst so viele Bereiche unseres Lebens“, sagt Anna Henschel, „auch, wie wir in Zukunft Wissenschaft kommunizieren oder wie Menschen sich Informationen beschaffen.“ Was oft noch unklar ist: Mit welchen Begriffen am besten über KI gesprochen oder geschrieben wird – auch über die wissenschaftliche Kommunikation hinaus. Das hat Henschel während eines dreimonatigen Aufenthalts am Tübinger Cyber Valley und dem Zentrum für Rhetorische Wissenschaftskommunikation zu Künstlicher Intelligenz (RHET AI) untersucht.
KI ist nach Ansicht einer Expertin weder künstlich noch intelligent
McCarthys Formulierung und die deutsche Übersetzung als „Künstliche Intelligenz“ finden viele Forscher schwierig und verwenden stattdessen den Begriff „Machine Learning“. Die amerikanische Kommunikationswissenschaftlerin Kate Crawford prägte dafür das Bonmot von der KI, die weder künstlich noch intelligent ist. „Künstlich nicht, weil die Art und Weise, wie diese ganzen Modelle und Produkte funktionieren, sehr häufig auf natürlichen Ressourcen basieren“, erklärt Henschel. Und ganz so intelligent sind die Maschinen dann auch noch nicht: „Die meisten generativen Modelle funktionieren nur so gut, weil zuvor Menschen in aufwendigster Arbeit Bilder oder andere Sachen gelabelt haben.“
Außerdem geht es hier um oft hochkomplexe Systeme, die einem Laienpublikum trotzdem irgendwie verständlich gemacht werden sollen. In der Wissenschaftskommunikation, aber auch in der Medienberichterstattung kommen daher viele Metaphern zum Einsatz. „Die allerhäufigste ist die des freundlichen Assistenten“, sagt Henschel. Diese Vermenschlichung sehen Forscher meist kritisch – auch, weil dabei Grenzen der Technik zu kurz kommen, beispielsweise dass ein System zuerst mit einer riesigen Datenmenge trainiert und von tatsächlichen Menschen entwickelt werden muss.
Journalisten sollen genaue Begriffe verwenden und Metaphern nutzen
Um herauszufinden, wie andere gängige Metaphern, etwa die Beschreibung von KI als Werkzeug oder Blackbox, bewertet und welche Sprache und Begriffe darüber hinaus verwendet werden, sprach Henschel mit etwa dreißig Forschenden aus dem Bereich Machine Learning. Außerdem entwarf sie einen Online-Fragebogen, den auch Forschende anderer Disziplinen und Mitarbeiter von Unternehmen, die im KI-Bereich tätig sind, beantworteten.
Herausgekommen sind dabei viele bunte Sprachbilder, von der Blackbox bis hin zu eher technischen Formulierungen mit Tools oder Netzwerken. Am häufigsten kritisiert wurde, wenn in der Kommunikation die Grenzen von KI nicht deutlich aufgezeigt werden, Übertreibungen oder Skandale die Berichterstattung prägen oder verschiedene Technologien durch Verallgemeinerung in einen Topf geworfen werden.
Und wie geht es besser? Zum Abschluss ihres Projekts fasste Henschel ihre Erkenntnisse mit bestehenden Empfehlungen aus der Wissenschaft zusammen, die über den Journalismus und die Wissenschaft hinaus interessant sind: Neben dem Verwenden möglichst genauer Begriffe gehe es darum, die jeweilige Zielgruppe abzuholen. Das funktioniert oft mit einfachen, witzigen oder sehr bildlichen Metaphern. Dabei sollten allerdings die Prozesse hinter den Systemen sowie deren mögliche Defizite oder Beschränkungen mit bedacht – und nicht allzu oft anthropomorphe Formulierungen bemüht werden.
Drei Fragen . . .
Was ist Ihr persönliches Best Of der KI-Metaphern?
Die witzigste Metapher in meinem Survey fand ich die vom Fleischwolf: Ein großes Sprachmodell ist wie die Wurstproduktion – man möchte nicht wissen, was drin steckt. Am schönsten fand ich persönlich, wie Wasserzeichentechnologie in der ZEIT mit Zaubertinte aus Zitronensaft erklärt wurde. Das ist ein einfacher Zugang zu einem komplexen Thema.
Was gilt es zu vermeiden?
Oft lassen sich Probleme schon durch genaue Bezeichnungen lösen, beispielsweise mit dem Begriff „Sprachmodell“ statt nur „KI“.
Wie können Politiker, Kommunen und Unternehmen besser über KI sprechen?
Als Unternehmen sollte man sich überlegen, was für das Produkt wünschenswert ist – soll es beispielsweise als Mensch geframt werden oder weckt das unpassende Erwartungen? In der Politik und Verwaltung sollte an die Lebensrealität der Wähler und Bürger angeknüpft werden. Und schließlich ist es auch lohnenswert, sich Gedanken über ganz neue Metaphern zu machen und damit den Diskurs mitzugestalten.
Journalistin Henschel forscht zu Kommunikation und KI
Anna Henschel hat an den Universitäten Konstanz und Amsterdam Psychologie studiert und in Glasgow im Bereich der sozialen Neurowissenschaften zu Interaktionen zwischen Menschen und Robotern promoviert. Über das Schreiben fand sie den Weg in die Wissenschaftskommunikation. Sie arbeitet als Redakteurin für das Portal wissenschaftskommunikation.de und beschäftigt sich dort, wie auch während ihres Aufenthalts am Cyber Valley und RHET-AI-Center in Tübingen, auch weiterhin mit Mensch-Technik-Interaktionen.