#43 | «KI ist ein Spiegel der Menschheit» | Gast: Selena Calleri, Computerlinguistin
#43 | «KI ist ein Spiegel der Menschheit» | Gast: Selena Calleri, Computerlinguistin

#43 | «KI ist ein Spiegel der Menschheit» | Gast: Selena Calleri, Computerlinguistin

AI und Gesellschaft – Wege in die neue Welt


10.04.2026 • 32 Min.

Blondinenwitze in Kulturen, wo es sie nie gab – ein kleines Beispiel, das viel erklärt. KI ist nicht neutral, sie spiegelt zurück, was wir hineingesteckt haben. Computerlinguistin Selena Calleri im Podcast «AI und Gesellschaft». Selena Calleri ist Computerlinguistin, Rechtstheoretikerin und Inhouse AI Consultant bei der TX Group. Im Podcast «AI und Gesellschaft – Wege in die neue Welt» spricht sie über eine Frage, die viele beschäftigt: Versteht KI Sprache wirklich – oder simuliert sie nur? Für Selena Calleri ist die Antwort klar: «Es ist eigentlich immer nur ein Educated Guess. Die KI versucht statistisch vorauszusagen, was die bestmögliche Antwort ist.» Wer Computerlinguistik studiert hat, wie sie es getan hat, war schon früh immunisiert gegen den Hype. Sprachmodelle waren schon immer Werkzeuge zur Sprachmodellierung – jetzt seien sie schlicht besser, weil sie über mehr Daten und leistungsfähigere Algorithmen verfügen. Von einem «denkenden Wesen» zu sprechen, hält sie für eine Kategorienverwechslung. Tausend Perspektiven – und keine eigene Was fehlt, nennt sie «Situiertheit». Ein Mensch ist eingebettet in seine Geschichte, seine Erlebnisse, seine Beziehungen – das alles formt seine Perspektive, ob er will oder nicht. Ein Sprachmodell hingegen sei eine Mischung aus tausend Perspektiven, aber besitze keine eigene. Die Philosophin Donna Haraway beschreibe diesen blinden Fleck treffend als «View from Nowhere» – der Anspruch auf einen objektiven Blick von überall und nirgendwo zugleich. Blondinenwitze als Symptom Besonders pointiert fällt Calleris Einschätzung zur viel beschworenen Neutralität von KI aus. «KI ist nicht neutraler als wir – sie spiegelt einfach alle Meinungen auf dieser Welt wider.» Das Training entscheide, was hineinkomme, und damit auch, was herauskomme. Als Beispiel nennt sie mehrsprachige Modelle, in denen Blondinenwitze plötzlich auch in Sprachräumen auftauchen, wo solche Stereotype kulturell schlicht nicht existieren – ein Nebenwirkung der Mehrsprachigkeit, die unbemerkt kulturelle Prägungen überträgt. Kurz: Sprachmodelle halten uns einen Spiegel vor – und der zeigt unsere eigenen Vorurteile.Der Spiegel lügt nicht, er zeigt nur unsWie lässt sich das verbessern? Calleri plädiert nicht für technische Patentrezepte, sondern für mehr Diversität – in Teams, in Trainingsdaten, im Diskurs. Mehr Perspektiven am Tisch, und die Bereitschaft, Widersprüche auszuhalten, statt vorschnell einen Konsens zu erzwingen. «Es gibt keine absolute Wahrheit», sagt sie mit der Gelassenheit einer Philosophin, die das ernst meint. Ihr Blick auf die nächsten zehn Jahre ist nüchtern: Sie erwartet eine wachsende gesellschaftliche Schere zwischen einer hyper-digitalisierten Schicht und einer Gegenbewegung, die auf Souveränität und Selbstbestimmung in der Technologie setzt. Gerade in Europa werde diese Spannung spürbar zunehmen. Was hilft? Räume schaffen, in denen Menschen miteinander reden, die das normalerweise nicht tun. «Community Building», sagt Calleri – und schlägt, nicht ganz ohne Augenzwinkern, das gemeinsame Essen als unterschätztes Mittel der Demokratisierung vor. Der Videopodcast «AI und Gesellschaft – Wege in die neue Welt», moderiert von Christoph Soltmannowski, wird produziert von der Stiftung Text Akademie. Monatlich erscheinen zwei Folgen, auf Spotify, YouTube und den grösseren weiteren Podcast-Plattformen. Produziert von Castalavista.