Neustart
Neustart

Neustart

DIE ZEIT


Podcast, Wissen & Bildung

Wir alle sind jeden Tag viele Stunden im Internet, manchmal, ohne es zu merken. Künstliche Intelligenz wird immer schlauer, soziale Netzwerke immer ätzender und Smartwatches wissen mehr über unsere Gesundheit als der Hausarzt. Aber mal ganz ehrlich: Wie gut verstehen wir die digitale Welt wirklich? Darum geht es in „Neustart“ dem Digitalpodcast der ZEIT. Jeden Donnerstag besprechen die Hosts Meike Laaff und Henrik Oerding, was gerade in der Digitalwelt passiert, und was das für die Offline-Welt bedeutet. Mit anderen Expertinnen aus der Redaktion reden sie über alles – von großen Konzernen zu kleinen Apps. Auch, aber nicht nur für Nerds.

Alle Folgen

  • Wie gefährlich ist Anthropics geheimes KI-Modell wirklich?

    23.04.202638:37

    Wenn es ein neues KI-Modell gibt, geben Firmen gerne damit an, was das Modell nun alles besser können soll als seine Vorgänger. Nutzer und Expertinnen können das dann zügig überprüfen. Anders bei Anthropic: Sein neues Modell Claude Mythos will das Unternehmen nicht veröffentlichen. Der Grund: Claude Mythos sei zu gefährlich. Nur knapp 50 ausgewählte Organisationen – darunter Apple, Google und Microsoft – haben im Rahmen des sogenannten Project Glasswing Zugang dazu erhalten. Das heißt, die Behauptungen lassen sich nicht unabhängig überprüfen. Können sie stimmen? Neustart-Host Henrik Oerding spricht mit ZEIT-Cybersicherheitsexpertin Eva Wolfangel, die sich die Veröffentlichungen von Anthropic zum neuen Modell genauer angeschaut hat. Die beiden unterhalten sich darüber, warum die National Security Agency der USA Mythos offenbar nutzt, obwohl das Pentagon Anthropic zuletzt als Lieferkettenrisiko eingestuft hat. Sie diskutieren, wie Anthropic vom Narrativ des »gefährlichsten Modells« profitieren könnte, warum BSI-Chefin Claudia Plattner von einem »Paradigmenwechsel« spricht – und weshalb mehr als 80 Prozent aller Cyberangriffe gar keine ausgefeilte KI brauchen. Im Rabbithole spricht Eva Wolfangel darüber, wie die Demokratisierung des Programmierens durch KI neue Sicherheitsrisiken schafft: wenn jeder eine App bauen kann, aber niemand prüft, ob der Code sicher ist. Zum Weiterlesen: - Eva Wolfangel (DIE ZEIT): »Es kann eine gefährliche Waffe sein« - Haya Schulmann, Michael Waidner (FAZ): Wie bedrohlich ist das neue KI-Modell Mythos wirklich? - Maria Curi, Sam Sabin (Axios): NSA using Anthropic's Mythos despite blacklist - Davi Ottenheimer: Verification is collapsing trust in Anthropic - Anthropic: System Card zu Claude Mythos (PDF) Haben Sie Feedback oder Fragen zur Folge? Dann schreiben Sie uns gern an neustart@zeit.de. Im ZEIT-Podcast »Neustart« ordnen die Hosts Henrik Oerding und Meike Laaff mit ihren Kolleginnen und Kollegen ein, was gerade in der Digitalwelt passiert – und was dies für die Offlinewelt bedeutet. Auch, aber nicht nur für Nerds. Jeden zweiten Donnerstag erscheint eine neue Folge. Dieser Podcast wird produziert von Pool Artists. Mehr hören? Dann testen Sie unser Podcast-Abo mit Zugriff auf alle Dokupodcasts und unser Podcast-Archiv. Jetzt 4 Wochen kostenlos testen. Und falls Sie uns nicht nur hören, sondern auch lesen möchten, testen Sie jetzt 4 Wochen kostenlos DIE ZEIT. Hier geht's zum Angebot.

  • Wie KI das Internet zumüllt

    09.04.202650:49

    Das Internet ist voll mit Grütze. Nicht mit der, die schon immer da war, sondern neuer Grütze, und zwar Unmengen davon: Videos von Katzen, die Spiegeleier braten. Texte, die wissenschaftlich klingen, aber eigentlich inhaltsleer sind. Bilder von Shrimp-Jesus, Songs, für die kein Künstler je zum Instrument gegriffen hat. Oder ein Video von einem KI-generierten Donald Trump, der mit einem Kot-Bomber über Demonstranten fliegt. Alles davon ist erschaffen von künstlicher Intelligenz: sogenannter AI-Slop. Analysen stellen fest, dass es immer mehr davon gibt. Ist das harmlose Berieselung – oder ein echtes Problem? Die "Neustart"-Hosts Meike Laaff und Henrik Oerding sortieren in dieser Folge, wo AI-Slop nur albern ist und wo er gefährlich werden kann. Sie sprechen darüber, warum Forscher von "Slopaganda" sprechen, wie KI-generierte Lego-Videos zur diplomatischen Waffe werden und was Slop mit Billigprodukten aus der Vergangenheit gemeinsam hat. Die beiden diskutieren, was das Aus der OpenAI-Videoplattform Sora bedeutet, warum Gamer wütend auf Nvidia sind – und ob der Begriff AI-Slop selbst vielleicht schon ein Zeichen von Gegenwehr ist. Im Rabbithole stellt Henrik Oerding die Website youraislopbores.me vor – einen Chat, in dem nicht KI antwortet, sondern echte Menschen. Zum Weiterlesen: - DIE ZEIT: Stopp den Slop - DIE ZEIT: Unendlicher Spaß - DIE ZEIT: Künstlich befruchtet - "404 Media": Iran Is Winning the AI Slop Propaganda War - "The New York Times": Who’s a Better Writer: A.I. or Humans? Take Our Quiz. Haben Sie Feedback oder Fragen zur Folge? Dann schreiben Sie uns gern an neustart@zeit.de. Im ZEIT-Podcast "Neustart" ordnen die Hosts Henrik Oerding und Meike Laaff mit ihren Kolleginnen und Kollegen ein, was gerade in der Digitalwelt passiert – und was dies für die Offlinewelt bedeutet. Auch, aber nicht nur für Nerds. Jeden zweiten Donnerstag erscheint eine neue Folge. Dieser Podcast wird produziert von Pool Artists. Mehr hören? Dann testen Sie unser Podcast-Abo mit Zugriff auf alle Dokupodcasts und unser Podcast-Archiv. Jetzt 4 Wochen kostenlos testen. Und falls Sie uns nicht nur hören, sondern auch lesen möchten, testen Sie jetzt 4 Wochen kostenlos DIE ZEIT. Hier geht's zum Angebot.

  • Digitale Gewalt: Warum es so schwer ist, gegen Deepfakes vorzugehen

    26.03.202644:58

    Mehr als 90 Prozent aller täuschend echt aussehenden Videos im Netz zeigen pornografische Inhalte – etwa 99 Prozent davon Frauen. Was tun gegen diese Deepfakes und die digitale Gewalt, die vor allem Frauen erfahren? Auf diese Frage will die Politik in dieser Woche eine Antwort finden – Bundesjustizministerin Stefanie Hubig hat dafür einen Gesetzesentwurf angekündigt. Das Thema digitale Gewalt ist wieder ganz oben auf der Tagesordnung gelandet, seit die Moderatorin und Schauspielerin Collien Fernandes öffentlich schwere Vorwürfe gegen ihren Ex-Mann Christian Ulmen erhoben hatte. Fernandes beschuldigt Ulmen, in ihrem Namen mit anderen Männern gechattet und vermeintliche Nacktfotos und Videos von ihr mit ihnen geteilt zu haben. Darüber hatte der Spiegel zuerst berichtet. Christian Ulmen lässt die Vorwürfe über seinen Anwalt bestreiten. Seit Jahren kämpft Fernandes gegen gefälschte Pornobilder im Internet, sogenannte Deepfakes. Ein Gericht in Spanien bestätigte der ZEIT am Freitag, dass ein Vorverfahren gegen Ulmen geführt werde, nachdem Fernandes Anzeige erstattet hatte. Schon zuvor hatten die massenhafte Verbreitung von sexualisierten KI-Bildern, die Elon Musks Chatbot Grok generierte, und der Fall einer jungen Studentin, die gegen sexualisierte KI-Nacktbilder Anzeige erstattete, Aufmerksamkeit für das Thema digitale Gewalt geschaffen, das in Deutschland laut einer Studie viele Frauen betrifft. Wie kann man sich gegen sexualisierte Deepfakes im Netz wehren? Was genau soll sich nun ändern? Welchen Schutz gibt es – und welche Rolle spielen Männer in der Debatte um Gewalt gegen Frauen im Netz? ZEIT-Volontär David Will und Lisa Hegemann, Ressortleiterin Digital der ZEIT, besprechen die juristischen und gesellschaftlichen Dimensionen digitaler Gewalt mit Neustart-Host Meike Laaff. Im Rabbit Hole der Woche erzählt Lisa Hegemann von ihrer Recherche zum Thema Emojis und wie sie verschiedenen Generationen dabei helfen, sich misszuverstehen. Haben Sie Feedback oder Fragen zur Folge? Dann schreiben Sie uns gern an neustart@zeit.de. Im ZEIT-Podcast "Neustart" ordnen die Hosts Henrik Oerding und Meike Laaff mit ihren Kolleginnen und Kollegen ein, was gerade in der Digitalwelt passiert – und was dies für die Offlinewelt bedeutet. Auch, aber nicht nur für Nerds. Jeden zweiten Donnerstag erscheint eine neue Folge. Dieser Podcast wird produziert von Pool Artists. Mehr hören? Dann testen Sie unser Podcast-Abo mit Zugriff auf alle Dokupodcasts und unser Podcast-Archiv. Jetzt 4 Wochen kostenlos testen. Und falls Sie uns nicht nur hören, sondern auch lesen möchten, testen Sie jetzt 4 Wochen kostenlos DIE ZEIT. Hier geht's zum Angebot.

  • Menschen, die für KI arbeiten? Die Geschichte hinter einem Bluff

    12.03.202640:12

    Vor wenigen Wochen ging die Plattform RentAHuman viral: Menschen sollten sich dort anbieten können, um von autonomen KI-Agenten für Aufgaben angeheuert zu werden – Knöpfe drücken, laufen, Menschen auf der Straße ansprechen. "AI needs your body", heißt es auf der Website. Die Geschichte vom Menschen als ausführendem Diener der allmächtigen künstlichen Intelligenz (KI) erzählte sich fast von selbst – und wurde von zahlreichen Medien aufgegriffen. Doch sie ist wohl falsch – und die Plattform vermutlich ein Betrug. "Neustart"-Host Henrik Oerding spricht in dieser Folge mit ZEIT-Cybersicherheitsexpertin Eva Wolfangel, die gemeinsam mit dem Informatiker Christopher Helm die Daten der Plattform ausgewertet hat. Wolfangel und Oerding gehen der Frage nach, was die Redakteurin von Anfang an skeptisch gemacht hat, was die Datenanalyse über die angeblichen KI-Aufträge verraten hat und wer hinter der Seite steckt. Sie diskutieren, ob durch den Hype um RentAHuman realer Schaden entstanden ist – und was eine aktuelle Studie über die tatsächlichen Gefahren autonomer KI-Agenten sagt. Darüber – und wie man sich künftig gegen solche viralen KI-Hypes wappnen kann – geht es in dieser Folge. Im Rabbithole sprechen Eva Wolfangel und Henrik Oerding über bahn.bet: eine Website, auf der man auf Bahnverspätungen wetten kann. Zwar nicht mit echtem Geld, aber auf echte Verspätungen. Zum Weiterlesen: - DIE ZEIT: Die perfekte KI-Geschichte, nur leider nicht wahr - DIE ZEIT: Würden Sie sich von einer KI anheuern lassen? - Natalie Shapira et al.: "Agents of Chaos" - DIE ZEIT: "Wir Österreicher leiden ja auch unter der Deutschen Bahn" - Heise: KI-Agent entwickelt Eigenleben beim Training Haben Sie Feedback oder Fragen zur Folge? Dann schreiben Sie uns gern an neustart@zeit.de. Im ZEIT-Podcast "Neustart" ordnen die Hosts Henrik Oerding und Meike Laaff mit ihren Kolleginnen und Kollegen ein, was gerade in der Digitalwelt passiert – und was dies für die Offlinewelt bedeutet. Auch, aber nicht nur für Nerds. Jeden zweiten Donnerstag erscheint eine neue Folge. Dieser Podcast wird produziert von Pool Artists. Mehr hören? Dann testen Sie unser Podcast-Abo mit Zugriff auf alle Dokupodcasts und unser Podcast-Archiv. Jetzt 4 Wochen kostenlos testen. Und falls Sie uns nicht nur hören, sondern auch lesen möchten, testen Sie jetzt 4 Wochen kostenlos DIE ZEIT. Hier geht's zum Angebot.

  • Dafür zieht Anthropic in den KI-Krieg

    05.03.202635:26

    Ende vergangener Woche eskalierte der Streit zwischen dem Pentagon und der KI-Firma Anthropic: Die US-Regierung wollte die künstliche Intelligenz des Konzerns für alle legalen Zwecke beim Militär einsetzen können. Doch das Unternehmen hinter dem Chatbot Claude widersetzte sich dem Willen des US-Verteidigungsministeriums und bestand auf einigen Sicherheitsregeln für den Einsatz seiner KI beim US-Militär – zum Beispiel für autonome Waffensysteme. Dafür straften US-Präsident Donald Trump und sein Kriegsminister Pete Hegseth das Unternehmen mit aller Härte ab: Bundesbehörden müssen aufhören, Anthropics KI zu nutzen – ebenso wie Unternehmen, die mit dem Pentagon zusammenarbeiten. Gleichzeitig verkündete Anthropics Konkurrent OpenAI, dass man einen Deal mit dem US-Verteidigungsministerium abgeschlossen habe – für genau die Zwecke, für die Anthropic dort künftig nicht mehr zum Einsatz kommen soll. Und nach Darstellung von OpenAI-Chef Sam Altman mit der Möglichkeit, genau die Nutzungsschranken einzuziehen, an denen die Verhandlungen zwischen dem Pentagon und Anthropic gescheitert sind. In einer neuen Folge des ZEIT-Digitalpodcasts Neustart erklärt Digital-Ressortleiter Jakob von Lindern im Gespräch mit Moderatorin Meike Laaff, was dahintersteht, was von der Positionierung von OpenAI zu halten ist – und warum er den KI-Krieg erst am Anfang sieht. Außerdem Thema in der Neustart-Rubrik "Arbeitsspeicher": Wie die Telekom mithilfe von Elon Musks Satelliteninternetdienst Starlink weiße Flecken in der Mobilfunkabdeckung schließen will – auch in Deutschland. Haben Sie Feedback oder Fragen zur Folge? Dann schreiben Sie uns gern an neustart@zeit.de. Im ZEIT-Podcast "Neustart" ordnen die Hosts Henrik Oerding und Meike Laaff mit ihren Kolleginnen und Kollegen Woche für Woche ein, was gerade in der Digitalwelt passiert – und was dies für die Offlinewelt bedeutet. Auch, aber nicht nur für Nerds. Jeden Donnerstag erscheint eine neue Folge. Dieser Podcast wird produziert von Pool Artists. Mehr hören? Dann testen Sie unser Podcast-Abo mit Zugriff auf alle Dokupodcasts und unser Podcast-Archiv. Jetzt 4 Wochen kostenlos testen. Und falls Sie uns nicht nur hören, sondern auch lesen möchten, testen Sie jetzt 4 Wochen kostenlos DIE ZEIT. Hier geht's zum Angebot.

  • Das richtet Social Media im Gehirn an

    26.02.202643:01

    In Deutschland scheint derzeit alles auf ein Social-Media-Verbot für alle unter 14 Jahren zuzusteuern. Das wollen zumindest die Regierungsparteien SPD und CDU. In den USA läuft derweil ein Prozess, der klären soll, ob Instagram und YouTube so süchtig machen, dass sie Jugendliche gefährden. Es ist ein Thema, zu dem praktisch jeder eine Meinung hat. Aber: Was weiß eigentlich die Hirnforschung über die Verführungskraft sozialer Medien und wie man ihr entkommt? Digitalredakteurin Eva Wolfangel hat sich gemeinsam mit Jan Schwenkenbecher, Gesundheitsredakteur bei der ZEIT, tief in die Forschung zu den Auswirkungen sozialer Medien auf das Gehirn eingegraben. Bei Neustart erzählt Wolfangel von ihren Erkenntnissen – von unschuldigem Dopamin über Reifungsprozesse im Hirn bis Ende 20 bis hin zur Verheißung des zweiten Marshmallows. Gemeinsam mit Host Meike Laaff diskutiert sie, ob Verbote die richtige Idee sind, um den Problemen beizukommen, die soziale Netzwerke verursachen. Und sie hat sogar eine mögliche Erklärung dabei, warum manche Menschen stark und andere kaum auf die Verführungen sozialer Medien anspringen. Im Rabbithole der Woche berichtet Eva Wolfangel von ihrem Versuch, sich über die Plattform RentAHuman von einem KI-Agenten anheuern zu lassen. Im Arbeitsspeicher geht es um die Datenanalyse-Software Palantir, die die SPD nun auf Bundesebene verhindern will. Und um eine Meta-Sicherheitsforscherin, der der KI-Agent OpenClaw das E-Mail-Postfach leerräumte. Haben Sie Feedback oder Fragen zur Folge? Dann schreiben Sie uns gern an neustart@zeit.de. Im ZEIT‑Podcast Neustart ordnen die Hosts Henrik Oerding und Meike Laaff mit ihren Kolleginnen und Kollegen Woche für Woche ein, was gerade in der Digitalwelt passiert – und was dies für die Offlinewelt bedeutet. Auch, aber nicht nur für Nerds. Jeden Donnerstag erscheint eine neue Folge. Dieser Podcast wird produziert von Pool Artists. Mehr hören? Dann testen Sie unser Podcast-Abo mit Zugriff auf alle Dokupodcasts und unser Podcast-Archiv. Jetzt 4 Wochen kostenlos testen. Und falls Sie uns nicht nur hören, sondern auch lesen möchten, testen Sie jetzt 4 Wochen kostenlos DIE ZEIT. Hier geht's zum Angebot.