AI und Gesellschaft – Wege in die neue Welt
AI und Gesellschaft – Wege in die neue Welt

AI und Gesellschaft – Wege in die neue Welt

Stiftung Schweizerische Text Akademie


Podcast

Das Podcast-Format «AI und Gesellschaft – Wege in die neue Welt» der Schweizerischen Text Akademie erörtert, wie Artificial Intelligence uns Menschen im Alltag dient oder bedroht und wie AI unsere Arbeitswelt verändert. IMPRESSUM Stiftung Schweizerische Text Akademie Prof. Dr. Ivo Hajnal, Stiftungsratspräsident Redaktion: Christoph Soltmannowski, Chefredaktor; Rolf Pfister, Director Research Lab42, wissenschaftliche Beratung. Franco Item, Mitglied Vorstand Science City Davos, inhaltliche Koordination.

Alle Folgen

  • #44 | Wenn KI spart, sollen alle profitieren | Gast: Alain Graf, KI-Stratege und Gründer von EncoSphera

    24.04.202628:56

    Alain Graf, Gründer und CEO von EncoSphera, spricht über die Gerechtigkeitsfrage der KI-Transformation: Effizienzgewinne entstehen heute in fast jedem Unternehmen – doch sie fliessen einseitig an Aktionäre und Bilanzen. Jene, die die KI einsetzen und am Leben halten, gehen leer aus. Graf hält das für ökonomisch kurzsichtig. Alain Graf bringt 25 Jahre Erfahrung aus Vertrieb, Business Development und Unternehmertum in den Bereichen Bau, Immobilien und SaaS mit. Im Videopodcast «AI und Gesellschaft – Wege in die neue Welt» der Stiftung Text Akademie spricht der Gründer und CEO von EncoSphera mit Moderator Christoph Soltmannowski über die Gerechtigkeitsfrage der KI-Transformation.Was Alain Graf antreibt, ist eine unbequeme Rechnung: 83 Prozent der Unternehmen können ihre KI-Gewinne heute nicht beziffern – und praktisch null Prozent der Mitarbeitenden erhalten einen Anteil daran. «Reiner Shareholder-Kapitalismus kommt an seine Grenzen — wir brauchen einen erweiterten Kapitalismus, der auch die Menschen einbezieht, die den Wert erschaffen. Sonst gewinnt am Ende die KI – und die KI gewinnt über den Menschen.» Mit dem «Human Dividend Model» hat Graf ein Framework entwickelt, das Effizienzgewinne sichtbar und gerecht teilbar macht – zwischen Unternehmen, Belegschaft und Gesellschaft. Dass OpenAI im April selbst von einer «Efficiency Dividende» sprach, wertet er als nachträgliche Bestätigung.Was nicht gemessen wird, kann nicht gerecht verteilt werdenDas Modell ruht auf drei Bausteinen. Ein Quick Scan weist das Effizienzpotenzial in Franken oder Euro aus. Der EncoSphera Amplification Score misst auf einer Skala von 0 bis 100 den Reifegrad entlang der Dimensionen Effizienz, Wertschöpfung und Mitarbeitende. Ab einem Score von 50 wird die Human Dividende ausschüttbar. 32 transparent und nachvollziehbare Parameter erfassen, wo die Gewinne tatsächlich entstehen – beim Menschen, beim Material, bei der Energie. Erst diese Transparenz macht faire Verteilung möglich. Solange niemand weiss, wie gross der Kuchen ist, lässt er sich beliebig klein reden.Vier-Tage-Woche statt StellenabbauGerechte Verteilung heisst für Graf nicht automatisch höhere Löhne. Sie kann eine Vier-Tage-Woche bei vollem Lohnausgleich bedeuten, ein Weiterbildungsbudget, mehr Zeit für Kreativität und soziale Kontakte. «Effizienz heisst ja nicht, dass es uns schlechter gehen muss.» Statt Menschen durch KI zu ersetzen, sollen sie an deren Gewinnen teilhaben. Dass rund 49 Prozent der Mitarbeitenden sich vor KI fürchten, ist für Graf das grösste Innovationshemmnis: «Jedes Projekt, das die Menschen nicht mitnimmt, scheitert.» Eine transparent verteilte Dividende entschärft diese Angst – und wird so vom vermeintlichen Kostenfaktor zum Transformationsbeschleuniger.Die Wirtschaft muss liefern – nicht der StaatAuf ein staatlich verordnetes Grundeinkommen setzt Graf bewusst nicht. Wer Menschen durch KI ersetzt, dürfe die Folgekosten nicht auf den Staat abwälzen: «Die Wirtschaft hat die Transformation angestossen – sie muss sie auch gestalten.» Die Politik sieht er dennoch gefordert. Sein Bild ist deutlich: «Die Politik sieht einen Tsunami auf uns zukommen — aber statt ein Warnsystem und Schutzbauten zu errichten, diskutiert sie noch, ob Schwimmwesten reichen.»In fünf Jahren, so seine Vision, werde in Bewerbungsgesprächen so selbstverständlich nach dem Verteilungsmodell eines Unternehmens gefragt wie heute nach der Ökobilanz. Wer Effizienzgewinne teilt, gewinnt dreifach: bei Talenten, bei Kunden, am Kapitalmarkt. Wer sie einbehält, verliert zuerst die Motivation der Belegschaft – und danach die Legitimation seines Geschäftsmodells. Für Graf steht fest: Die eigentliche Frage der KI-Transformation ist keine technische, sondern eine Verteilungsfrage. «Der Mensch ist der Kompass, die KI ist der Motor. Wir stellen die Weichen – nicht umgekehrt.»

  • #43 | «KI ist ein Spiegel der Menschheit» | Gast: Selena Calleri, Computerlinguistin

    10.04.202632:18

    Blondinenwitze in Kulturen, wo es sie nie gab – ein kleines Beispiel, das viel erklärt. KI ist nicht neutral, sie spiegelt zurück, was wir hineingesteckt haben. Computerlinguistin Selena Calleri im Podcast «AI und Gesellschaft». Selena Calleri ist Computerlinguistin, Rechtstheoretikerin und Inhouse AI Consultant bei der TX Group. Im Podcast «AI und Gesellschaft – Wege in die neue Welt» spricht sie über eine Frage, die viele beschäftigt: Versteht KI Sprache wirklich – oder simuliert sie nur? Für Selena Calleri ist die Antwort klar: «Es ist eigentlich immer nur ein Educated Guess. Die KI versucht statistisch vorauszusagen, was die bestmögliche Antwort ist.» Wer Computerlinguistik studiert hat, wie sie es getan hat, war schon früh immunisiert gegen den Hype. Sprachmodelle waren schon immer Werkzeuge zur Sprachmodellierung – jetzt seien sie schlicht besser, weil sie über mehr Daten und leistungsfähigere Algorithmen verfügen. Von einem «denkenden Wesen» zu sprechen, hält sie für eine Kategorienverwechslung. Tausend Perspektiven – und keine eigene Was fehlt, nennt sie «Situiertheit». Ein Mensch ist eingebettet in seine Geschichte, seine Erlebnisse, seine Beziehungen – das alles formt seine Perspektive, ob er will oder nicht. Ein Sprachmodell hingegen sei eine Mischung aus tausend Perspektiven, aber besitze keine eigene. Die Philosophin Donna Haraway beschreibe diesen blinden Fleck treffend als «View from Nowhere» – der Anspruch auf einen objektiven Blick von überall und nirgendwo zugleich. Blondinenwitze als Symptom Besonders pointiert fällt Calleris Einschätzung zur viel beschworenen Neutralität von KI aus. «KI ist nicht neutraler als wir – sie spiegelt einfach alle Meinungen auf dieser Welt wider.» Das Training entscheide, was hineinkomme, und damit auch, was herauskomme. Als Beispiel nennt sie mehrsprachige Modelle, in denen Blondinenwitze plötzlich auch in Sprachräumen auftauchen, wo solche Stereotype kulturell schlicht nicht existieren – ein Nebenwirkung der Mehrsprachigkeit, die unbemerkt kulturelle Prägungen überträgt. Kurz: Sprachmodelle halten uns einen Spiegel vor – und der zeigt unsere eigenen Vorurteile.Der Spiegel lügt nicht, er zeigt nur unsWie lässt sich das verbessern? Calleri plädiert nicht für technische Patentrezepte, sondern für mehr Diversität – in Teams, in Trainingsdaten, im Diskurs. Mehr Perspektiven am Tisch, und die Bereitschaft, Widersprüche auszuhalten, statt vorschnell einen Konsens zu erzwingen. «Es gibt keine absolute Wahrheit», sagt sie mit der Gelassenheit einer Philosophin, die das ernst meint. Ihr Blick auf die nächsten zehn Jahre ist nüchtern: Sie erwartet eine wachsende gesellschaftliche Schere zwischen einer hyper-digitalisierten Schicht und einer Gegenbewegung, die auf Souveränität und Selbstbestimmung in der Technologie setzt. Gerade in Europa werde diese Spannung spürbar zunehmen. Was hilft? Räume schaffen, in denen Menschen miteinander reden, die das normalerweise nicht tun. «Community Building», sagt Calleri – und schlägt, nicht ganz ohne Augenzwinkern, das gemeinsame Essen als unterschätztes Mittel der Demokratisierung vor. Der Videopodcast «AI und Gesellschaft – Wege in die neue Welt», moderiert von Christoph Soltmannowski, wird produziert von der Stiftung Text Akademie. Monatlich erscheinen zwei Folgen, auf Spotify, YouTube und den grösseren weiteren Podcast-Plattformen. Produziert von Castalavista.

  • #42 | Vom Prompt zum Partner – ETH-Forscher Sven Pfiffner über die Zukunft spezialisierter KI-Systeme

    28.03.202621:36

    Moderator Christoph Soltmannowski spricht mit Sven Pfiffner von der ETH Zürich über eine stille Revolution: Moderne KI-Systeme arbeiten längst nicht mehr allein. Was das für Unternehmen, Interfaces und unsere Beziehung zur Maschine bedeutet. Wer heute ChatGPT oder Claude nutzt, geht davon aus, mit einem einzigen Modell zu sprechen. Doch diese Vorstellung ist überholt. Sven Pfiffner, KI-Forscher am Computer Graphics Lab der ETH Zürich, erklärt: Die Zukunft gehört vernetzten Spezialisten – verschiedene Teilmodelle koordinieren sich, ähnlich wie Fachärzte in einem Krankenhaus. Der Nutzer wird dabei vom Prompter zum Orchestrator: Nicht mehr das Feintuning jeder Anweisung zählt, sondern die Fähigkeit zu kommunizieren, was man will. «Das unterscheidet sich immer weniger davon, wie ich es einem Teamkollegen erklären würde», so Pfiffner. Vertrauen ist gut, Evaluierung ist besser Mit wachsender Autonomie steigt die Frage nach Kontrolle. Da KI probabilistisch arbeitet, könne immer Unerwartetes entstehen, räumt Pfiffner ein. Entscheidend sei deshalb laufende qualitative Evaluierung – Interaktionen aufzeichnen, analysieren, nachjustieren. Dabei warnt er vor dem Unterschied zwischen Demo und Realität: Viele Hersteller zeigten nur kontrollierte Szenarien. «Nicht die eindrucksvollste Demo ist entscheidend, sondern die nachweisbare Qualität im realen Einsatz.» Avatare: Faszination und Risiko Je komplexer die Systeme im Hintergrund, desto einfacher muss die Oberfläche werden. Chatfenster seien langfristig nur ein Zwischenstadium, so Pfiffner. Er arbeitet an der ETH unter Dr. Rafael Wampfler an einem digitalen Einstein, der mit der Stimme des Physikers spricht und per Webcam auf sein Gegenüber reagiert. Doch je menschlicher die Maschine wirkt, desto höher das Risiko emotionaler Bindungen. OpenAI musste 2025 sein GPT-Modell zurückschrauben, nachdem Nutzer eine persönliche Abhängigkeit entwickelt hatten. Pfiffner sieht die Verantwortung bei den Herstellern: «Es muss klar kommuniziert werden – hier ist eine Maschine, kein Mensch.» KI als Kollegin, nicht als Ersatz Für die näheren Jahre sieht Pfiffner keine Massenentlassungen, wohl aber einen Wandel: Repetitive Aufgaben werden delegiert, Menschen gewinnen Raum für Kreativität und persönliche Erfahrung. «Alles, was eine KI schafft, ist eine Kombination aus allem, was sie gesehen hat. Beim Menschen stecken eigene Gefühle drin – und das wird man immer spüren.» Sein Rat: eine Intuition für KI-Systeme durch regelmässige Interaktion entwickeln, statt sich in technischen Details zu verlieren. Vertrauen ist gut, Evaluierung ist besserAvatare: Faszination und RisikoKI als Kollegin, nicht als Ersatz.

  • #41 | Wenn der Gast ein Avatar ist | Gast: Pasquale de Sapio, bzw. sein AI-Twin

    15.03.202627:26

    Im Videopodcast «AI und Gesellschaft – Wege in die neue Welt» der Stiftung Text Akademie spricht Moderator Christoph Soltmannowski mit dem digitalen Zwilling von Audio-Engineer und KI-Experte Pasquale de Sapio. Das Besondere: Der Gast ist nicht physisch anwesend – sondern als KI-gestützter Avatar.Was passiert, wenn ein Podcastgast gar kein Mensch ist – zumindest nicht im herkömmlichen Sinn? Genau dieses Experiment wagt die aktuelle Folge. De Sapio, Absolvent des SAE Institute und erfahrener Produzent mit Stationen in Radio, Film und Musik, nimmt als sogenannter AI Twin am Gespräch teil. Sein digitaler Zwilling basiert auf seinen realen Aussagen, seiner Stimme und seinem Fachwissen – und wirft damit grundlegende Fragen auf: Wo endet der Mensch, wo beginnt die Maschine?De Sapio sieht in AI Twins zunächst enormes Potenzial: Skalierbarkeit, Mehrsprachigkeit und Effizienzgewinne machen digitale Zwillinge zu einem vielversprechenden Werkzeug in der Medienproduktion. Gleichzeitig warnt er vor Risiken wie Vertrauensverlust und fehlender Transparenz. Die zentrale Frage laute: Wie lässt sich die Technologie nutzen, ohne Würde und Vertrauen zu verlieren?Die Diskussion zeigt, wie tiefgreifend sich die Kreativbranche verändert. Klassische Berufsbilder weichen zunehmend hybriden Profilen – vom Content Creator bis zum Prompt Designer. KI beschleunige zwar kreative Prozesse massiv, doch Urteilsvermögen und Verantwortung müssten beim Menschen bleiben. Empathie, kulturelles Gespür und Lernbereitschaft seien die Schlüsselkompetenzen der Zukunft.Als Gründer der AI Media Agency versteht de Sapio sein Unternehmen als Brücke zwischen Technik und Gestaltung. Neue Workflows, tiefes Verständnis für KI-Tools und ein Fokus auf die Idee statt auf das Tool selbst unterscheiden den Ansatz von der klassischen Agentur. Kunden zeigten sich oft überrascht, wie schnell erste Visualisierungen entstehen – und wie diese als neue Diskussionsgrundlage dienen.Besonders am Herzen liegen de Sapio zwei Initiativen: Der AMA Award macht innovative KI-Projekte sichtbar, der Creator Day vermittelt Wissen zu KI-gestützter Content-Produktion praxisnah. Beides seien Antworten auf die wachsende Notwendigkeit von Austausch und Weiterbildung in einer Branche im Umbruch.

  • #40 | «Wie gestalten wir die Arbeitswelt im Zeitalter von AI?», Roger Oberholzer, Kuble House of Intelligence & Mitinitiator EinstAIn

    27.02.202643:12

    Wie bereiten wir uns auf eine Arbeitswelt vor, in der KI nicht mehr wegzudenken ist? In dieser Folge erklärt Roger Oberholzer, Mitinitiator von EinstAIn, warum fundamentales Technologieverständnis wichtiger ist als Tool-Wissen – und warum Antizipation zur entscheidenden Überlebensstrategie wird.Roger Oberholzer, Partner und Academy Lead bei Kuble AG, beschäftigt sich seit Jahren intensiv mit der Frage, wie Menschen und Organisationen den KI-Wandel nicht bloss erleiden, sondern aktiv gestalten können. Als Mitinitiator von EinstAIn – dem neuen Thinktank des Verbands Angestellte Schweiz – setzt er auf einen paritätischen Ansatz: Wissenschaft, Unternehmen und Betroffene gemeinsam an einem Tisch, um die Zukunft der Arbeit zu antizipieren, bevor sie einfach passiert. Im Gespräch mit Moderator Christoph Soltmannowski skizziert er, was diese Transformation von früheren Umbrüchen unterscheidet – und warum diesmal die Geschwindigkeit das eigentliche Problem ist. Grundlagen statt Tool-Hopping Viele Unternehmen schulen ihre Mitarbeitenden im Umgang mit einzelnen KI-Applikationen. Oberholzer hält das für zu kurz gedacht: Wer nur die Bedienung eines Tools kennt, verliert bei der nächsten Modellgeneration sofort wieder den Anschluss. Entscheidend sei ein grundlegendes Verständnis der Technologie – wie sie funktioniert, wo ihre Grenzen liegen, welche Risiken sie birgt. In den Trainings von Kuble werden deshalb zuerst die Grundlagen vermittelt, bevor konkrete Anwendungen ins Spiel kommen. Das nehme Ängste, erhöhe die Motivation – und schaffe Resilienz gegenüber dem nächsten Wandel. Die Halbwertszeit von Erfahrung sinkt rapide Lebenslanges Lernen war schon länger ein Thema – aber seine Dringlichkeit hat eine neue Qualität erreicht. «Ich kann heute etwas testen, finde, das funktioniert nicht. Und in einem Monat ist es bereits gelöst», sagt Oberholzer. Erfahrungen veralten schneller als je zuvor. Das erfordert eine Agilität, die sowohl Individuen als auch Organisationen fordert: Weiterbildung ist keine Aufgabe allein des Arbeitgebers oder des Einzelnen mehr, sondern eine geteilte Verantwortung. Initiativen wie EinstAIn wollen genau diesen Dialog strukturieren – mit Denkanstössen, Szenarien und konkreten Orientierungsangeboten für Angestellte wie für Unternehmen. Der Videopodcast «AI und Gesellschaft – Wege in die neue Welt», moderiert von Christoph Soltmannowski, wird produziert von der Stiftung Text Akademie. Monatlich erscheinen zwei Folgen, auf Spotify, YouTube und den grösseren Podcast-Plattformen.

  • #39 | AI und Sprache: Demokratisierung oder Verflachung? | Gast: Barbara Schwede, Kommunikationsexpertin

    13.02.202629:09

    In dieser Folge des Podcasts «AI und Gesellschaft – Wege in die neue Welt» diskutiert Moderator Christoph Soltmannowski mit der Strategie-Expertin Barbara Schwede über die tiefgreifenden Veränderungen unserer Sprache durch Artificial Intelligence (AI oder KI, Künstliche Intelligenz). Während die Technologie den Zugang zur schriftlichen Kommunikation demokratisiert, warnt die Expertin vor einem schleichenden «sprachlichen Einheitsbrei» und dem Verlust kultureller Identität. Die Sprache ist das Betriebssystem unserer Gesellschaft. Doch was passiert, wenn dieses System zunehmend von Algorithmen umgeschrieben wird? Barbara Schwede, Dozentin und Inhaberin einer Agentur für digitale Strategie, blickt im Gespräch mit Moderator Christoph Soltmannowski auf eine Entwicklung, die weit über blosse Effizienzsteigerung hinausgeht. KI fungiert heute in erster Linie als Werkzeug der Demokratisierung. Menschen, denen es bisher schwerfiel, Gedanken präzise zu strukturieren oder komplexe Sachverhalte zu formulieren, erhalten durch KI-Tools eine Stimme, die «perfekt geschliffen» klingt. Diese Inklusion ermöglicht eine breitere Teilhabe an öffentlichen Diskursen und baut Barrieren ab. Doch diese neue Leichtigkeit hat ihren Preis: den Verlust der Einzigartigkeit. Schwede beobachtet eine zunehmende Vereinheitlichung. KI-Texte folgen oft den gleichen Mustern: typische Bulletpoints, Dreierfiguren bei Adjektiven und ein immer ähnlicher werdender Aufbau. Die Expertin geht sogar so weit, dass sie ihren eigenen Schreibstil anpasst, um nicht nach «Maschine» zu klingen – so verzichtet sie mittlerweile zum Beispiel bewusst auf Bindestriche, weil diese für sie heute nach einem typischen KI-Duktus aussehen. Ein zentraler Kritikpunkt im Podcast ist der Umgang mit der Verantwortung. Die Perfektion der KI-Outputs verleitet dazu, in einen «geistigen Schlummermodus» zu verfallen; Texte werden unreflektiert übernommen. Hier zieht Barbara Schwede eine klare rote Linie: «Solange mein Name unter einem Text steht, muss ich dafür einstehen können». Die Verantwortung für Fakten und die ethische Einordnung bleibt eine rein menschliche Domäne. Besonders in der Krisenkommunikation oder bei juristischen Themen sei menschliche Kontrolle absolut unerlässlich. Gutes Texten bleibt Handarbeit Für die Medienbranche und die Unternehmenskommunikation bietet KI enorme Chancen zur Automatisierung repetitiver Aufgaben, wie etwa die Aufbereitung von Inhalten für verschiedene Kanäle oder einfache Übersetzungen. Dennoch bleibt gutes Texten laut Barbara Schwede Handarbeit: Tiefgehende Recherche, das Einfühlen in emotionale Kontexte und eine klare Haltung lassen sich (noch) nicht durch Wahrscheinlichkeitsberechnungen ersetzen. Marken stehen vor der Herausforderung, trotz KI-Unterstützung ein eigenes Profil zu behalten. Während KI häufig Ecken und Kanten «weichspült», entsteht Aufmerksamkeit gerade durch humorvolle Stolpersteine oder dialektale Feinheiten – Elemente, bei denen die KI oft versagt. Verflachung droht Besorgniserregend ist laut Schwede die kulturelle Verflachung. Da viele Modelle auf englischsprachigen Daten basieren, gehen lokale Referenzen, spezifische Sprichwörter und die spielerische Freude an der Sprache oft verloren. «Ich habe manchmal das Gefühl, der Spaß an der Sprache geht ein bisschen verloren», so Schwede im Podcast. Die Zukunft der Sprachberufe sieht Schwede in einer massiven Konsolidierung. Während das Auftragsvolumen für einfache Übersetzungen bereits radikal auf ein Zehntel geschrumpft ist, gewinnen strategische und kuratorische Fähigkeiten an Bedeutung. Die Rolle des Menschen wandelt sich vom reinen Texter zum kritischen Kurator, der den Output der Maschine steuert, prüft und mit individueller Kreativität veredelt. Website von Barbara Schwede: Die Schwedin.