
Deutschlands meistgehörter Data Science Podcast – jetzt reinhören, ganz ohne Anmeldung Ob Data Science, Machine Learning oder künstliche Intelligenz – in diesem Podcast bekommst du mehr als nur Theorie. Prof. Dr. René Brunner liefert verständliche Einblicke in komplexe Themen und zeigt, wie Daten echte Wirkung entfalten. Praxisnah, aktuell und inspirierend. Was dich erwartet: Jede Episode beleuchtet ein spannendes Thema – zusammen mit Expertinnen und Experten aus der Wirtschaft. Es geht um konkrete Anwendungsfälle, Best Practices und Trends direkt aus dem Unternehmensalltag. Dein Host: Prof. Dr. René Brunner ist Professor an der Macromedia Hochschule, Gründer von Datamics und erfolgreicher Fachbuchautor. Über 50.000 Teilnehmer seiner Onlinekurse auf Udemy wissen: Er macht Data Science zugänglich – ohne unnötigen Fachjargon. Sein neuestes Buch „Python – Schritt für Schritt Programmieren lernen“ richtet sich an Einsteiger und erfreut sich großer Beliebtheit. Für wen ist der Podcast? Für Managerinnen und Manager, die Data Science verstehen und einsetzen wollen. Für Einsteigerinnen und Einsteiger, die sich einen fundierten Überblick über aktuelle Entwicklungen in deutschen Unternehmen verschaffen möchten. Das sagt die Community: „Ich höre seit zwei Wochen – und fast hätte ich dank des Podcasts einen Job bekommen.“ „Spannende Einblicke in die Berufswelt, hilfreiche Tipps für den Einstieg.“ „Informativ, praxisnah und motivierend – ein echter Gewinn für die Data Science Community.“ Mehr über René Brunner auf LinkedIn: linkedin.com/in/renebrunner
Alle Folgen
Hard Hats & Smart Data: Machine Learning for Construction Safety
(english version below) ++++ Unsere 34. Podcast-Episode: Machine Learning auf der Baustelle – Sicherheit, Sensoren & smarte Templates ++++ In dieser Folge sprechen wir mit Joel Aytunc Un von Holcim - einem internationalen Konzern, der in mehr als 60 Ländern aktiv ist – über die Herausforderungen und Chancen beim Einsatz von Data Science im Bereich Arbeitssicherheit auf Baustellen. Wie lässt sich mit Hilfe von Audio-, Sensor- und Kameradaten erkennen, ob Sicherheitsvorgaben eingehalten werden? Welche Rolle spielen ML-Modelle in einem realen, oft chaotischen Baustellenumfeld – und wie bringt man diese überhaupt produktiv zum Laufen? Joel gibt uns Einblick in seine Projekte, erzählt von praktischen Erfahrungen bei der Implementierung von Machine Learning im Produktionsumfeld, von der Bedeutung eines guten MLOps-Setups und warum der Einstieg in strukturierte ML-Projekte nicht in Jupyter Notebooks enden sollte. Auch Themen wie Akzeptanz im Team, Datenschutz und Annotation im industriellen Umfeld kommen zur Sprache. Ein spannender Use Case, der zeigt, wie weit Data Science bereits in industrielle Kontexte vorgedrungen ist – und was es braucht, damit Innovation nicht nur ein Buzzword bleibt. +++++ Episode 34: Data Science on Construction Sites – Safety, Sensors, and Smart Use Cases +++++ In this episode, we talk to Joel, a data scientist working at a large international company operating in over 60 countries. The topic: using data science and machine learning to improve safety on construction sites. How can audio, sensor, and camera data help detect whether safety protocols are being followed? What does it take to get machine learning models running in the unpredictable reality of construction environments? Joel shares insights from real-world projects, explaining how ML can be effectively applied in industrial contexts. We dive into topics like MLOps, annotation challenges in production settings, data privacy, and why it's often a mistake to start with just a Jupyter notebook. A fascinating use case that shows how data science is already shaping safety and efficiency far beyond the tech industry—and what it takes to turn innovation into real impact. Für mehr Informationen zum Thema Data Science, besuche gerne unsere Website: https://datamics.com/ Oder nimm an einem unserer zahlreichen Onlinekurse teil: https://www.udemy.com/user/datamics/ Um mit Natalie in Kontakt zu treten, besuche gerne ihr LinkedIn-Profil: https://www.linkedin.com/in/joel-aytunc-un/

Chemometrie -Authentifizierung und Qualitätssicherung in der Lebensmittelindustrie mit Data Science
++++ Unsere 33. Podcast-Episode: Natalie Gerhardt über Chemometrics in der Lebensmittelauthentifizierung und Qualitätssicherung ++++ Hallo und herzlich willkommen zur neuen Episode des Podcasts „Data Science mit Milch und Zucker“! Im Podcast Nr. 33 geht es um den Einsatz von Data Science und chemometrischen Methoden zur Authentifizierung von Lebensmitteln und der Sicherung von Qualität. Zu Gast ist Natalie Gerhardt, Professorin für Analytische Chemie mit dem Schwerpunkt Chemometrie und Data Science. Sie ist Expertin im Bereich der Überprüfung der Authentizität und Echtheit von Lebensmitteln und gewährt uns tiefgehende Einblicke in die praktischen Herausforderungen sowie innovative Lösungsansätze – insbesondere durch den Einsatz von "Profiling"- oder "Fingerprinting"-Analysen, die zur Sicherstellung der Herkunft und Echtheit von Lebensmitteln beitragen. Natalie erklärt, wie in der Lebensmittelindustrie oft mit komplexen Datensätzen gearbeitet wird, die über 40.000 Variablen umfassen können. Dabei geht es darum, mit klassischen Methoden wie der Hauptkomponentenanalyse (PCA) und Klassifikationsalgorithmen wie der linearen Diskriminanzanalyse (LDA), die relevanten Muster zu identifizieren und Authentizität zu prüfen. Durch den Einsatz verschiedener chemometrischer Ansätze werden die Daten reduziert, wesentliche Informationen extrahiert und Korrelationen sowie verborgene Zusammenhänge aufgedeckt. Besonders bei hochwertigen Lebensmitteln wie Safran, Honig, Olivenöl und Fleisch wird die Gefahr von Fälschungen thematisiert, die immer raffinierter werden. Hier hilft der Einsatz von Data Science, um Fehlerquellen schnell zu erkennen und fälschungssichere Referenzdatenbanken aufzubauen. Die Datenqualität und die Probenplanung spielen eine entscheidende Rolle, um zuverlässige Ergebnisse zu erzielen. Dabei ist es wichtig, dass Data Scientists und Industriepartner gut zusammenarbeiten und die Ziele des Projekts klar kommuniziert werden. Natalie betont zudem die Bedeutung der Datenprozesse: Wie geht man mit Fehlwerten, Ausreißern und Rauschen in den Daten um? Sie hebt hervor, dass einfache Modelle oft besser geeignet sind als komplexe Deep Learning-Algorithmen, besonders bei kleineren Datensätzen. Zum Schluss gibt sie noch Tipps, wie man erfolgreich mit Data Science-Projekten arbeitet: Ziele klar definieren, den Workflow sorgfältig planen und vernetzt bleiben, um von den neuesten Entwicklungen in der Branche zu profitieren. Vielen Dank fürs Zuhören und viel Spaß mit der Episode! Für mehr Informationen zum Thema Data Science, besuche gerne unsere Website: https://datamics.com/ Oder nimm an einem unserer zahlreichen Onlinekurse teil: https://www.udemy.com/user/datamics/ Um mit Natalie in Kontakt zu treten, besuche gerne ihr LinkedIn-Profil: https://www.linkedin.com/in/natalie-gerhardt

Wie A/B-Testing und KI Unternehmen transformieren
+++ Unsere 32. Podcast-Episode: Philipp Paraguya über digitale Transformation, KI und A/B-Testing +++ Hallo und herzlich willkommen zur neuen Episode des Podcasts „Data Science mit Milch und Zucker“! Heute freuen wir uns, Philipp Paraguya, Manager bei der ALDI Data & Analytics Services GmbH, als Gast zu begrüßen. Philipp ist ein erfahrener Experte für digitale Transformation und künstliche Intelligenz in Unternehmen. Mit seiner langjährigen Erfahrung in der Tech- und Beratungsbranche teilt er spannende Einblicke in die Implementierung von KI-Technologien und datengetriebene Entscheidungsfindung. In dieser Folge sprechen wir über die Bedeutung von A/B-Testing und datenbasierten Experimenten für Unternehmen. Philipp erklärt, warum A/B-Tests ein essenzielles Werkzeug für die Optimierung von Geschäftsprozessen sind – sei es im Marketing, in der Produktentwicklung oder bei der Automatisierung von Abläufen. Er gibt praxisnahe Tipps, wie Unternehmen ihre Tests strukturieren sollten, um aussagekräftige Ergebnisse zu erhalten, und zeigt auf, welche Fallstricke es zu vermeiden gilt. Außerdem diskutieren wir, welche Rolle KI bei der digitalen Transformation spielt und wie Führungskräfte ihre Teams optimal auf neue Technologien vorbereiten können. Philipp betont die Wichtigkeit von kontinuierlichem Lernen, iterativen Verbesserungen und einer datengetriebenen Unternehmenskultur. Wir freuen uns, euch in dieser Folge wertvolle Insights zu A/B-Testing, KI und digitaler Transformation zu geben. Vielen Dank fürs Zuhören und viel Spaß mit der Episode! Für mehr Informationen zum Thema Data Science, besuche gerne unsere Website: https://datamics.com/ Oder nimm an einem unserer zahlreichen Onlinekurse teil: https://www.udemy.com/user/datamics/ Um mit Philipp in Kontakt zu treten, besuche gerne sein LinkedIn-Profil: https://www.linkedin.com/in/philipp-paraguya

Federated Learning und seine Anwendung in der Industrie 4.0 mit Michael Kühne-Schlinkert
Der Podcast dreht sich um das Thema Federated Learning und seine Anwendung in der Industrie 4.0. Der Gast, Michael Kühne-Schlinkert, Gründer und CEO von Katulu GmbH, beschreibt, wie Federated Learning genutzt wird, um künstliche Intelligenz direkt bei den Dateneigentümern zu trainieren, ohne dass Daten zentral gesammelt werden müssen. Das Verfahren bietet Vorteile wie Datenschutz, Kosteneffizienz und die Einhaltung rechtlicher Vorgaben. Ein praktisches Beispiel ist die Anwendung in der Automobilindustrie, bei der Modelle in den Fahrzeugen trainiert und optimiert werden. Herausforderungen bestehen insbesondere in der Heterogenität der Systeme und der Datenaufbereitung. Federated Learning ist noch nicht weit verbreitet, bietet aber großes Potenzial, vor allem in komplexen, verteilten Systemen der Industrie.

Entwicklungen und Herausforderungen im Bereich der generativen KI mit Dr. Johannes Köppern
In dem Podcast wurde über die aktuellen Entwicklungen und Herausforderungen im Bereich der generativen KI, insbesondere Large Language Models (LLMs), gesprochen. Dr. Johannes Köppern erklärt die Unterschiede zwischen LLMs und General AI, wobei er auf die Schwierigkeiten der Reproduzierbarkeit und Vorhersagbarkeit von Modellen eingeht. Ein weiteres Thema waren Agentensysteme, die durch die Nutzung von Werkzeugen und dynamischen Planungsfähigkeiten neue Möglichkeiten eröffnen. Es wurden auch die Kosten und der Preisverfall bei der Nutzung von Modellen wie GPT-4 angesprochen, was die Anwendung solcher Technologien zunehmend erschwinglicher macht.

Data Science und Sicherheit: Expertenwissen mit Thomas Neeff entdecken
In der aktuellen Episode von "Data Science mit Milch und Zucker" begrüßt Gastgeber René Thomas Neeff, Sicherheitsexperte und Geschäftsführer von Ten Information Management GmbH. Sie tauchen tief in die oft übersehenen Sicherheitsaspekte der Data Science ein und diskutieren, wie essenziell Informations- und IT-Sicherheit für Unternehmen sind. Thomas erklärt die Bedeutung von Vertraulichkeit, Integrität und Verfügbarkeit und erläutert, wie internationale Normen wie ISO 27001 und technische Sicherheitsmethoden wie Penetration Testing dabei helfen können, Sicherheitsrisiken zu minimieren. Er betont auch die Wichtigkeit eines soliden Zugriffsmanagements und gibt praktische Tipps zur Bewusstseinsbildung für Sicherheitsfragen in Data Science Projekten. Hören Sie rein, um zu erfahren, wie Sie Ihre Datenprojekte sicher und zuverlässig gestalten können.

Data Mesh und digitale Transformation: Einblicke von Zeiss' Data-Analytics-Expertin
In der neuen Episode des Podcasts "Data Science mit Milch und Zucker" diskutiert René mit Laura Luisa Velikonja, Head of Business Data Analytics bei Zeiss, über den Wandel des Unternehmens von einer monolithischen Datenarchitektur hin zu einem Data Mesh. Laura erläutert, wie ihr Team datengetriebene Lösungen entwickelt, um die internen Geschäftsbereiche zu unterstützen, und wie Data Mesh die Effizienz und Governance verbessert. Sie teilt zudem wertvolle Tipps für Data Science Einsteiger und erklärt, wie agiles Arbeiten und Methoden aus dem Produktmanagement den Weg zu schnellen, wertschöpfenden Ergebnissen ebnen.

Herausforderungen und Lösungen in ML Ops und LLM Ops
+++ Episode 27: ML Ops und LLM Ops – Herausforderungen und Lösungen mit Robby Hornig +++ In der heutigen Episode von „Data Science mit Milch und Zucker“ haben wir Robby Hornig von Weights & Biases zu Gast. Robby ist der Regional Director für die DACH-Region sowie Osteuropa und bringt eine Fülle von Wissen und Erfahrung in den Bereichen Machine Learning Operations (ML Ops) und Large Language Models (LLM Ops) mit. Wir tauchen tief in die Herausforderungen ein, die Unternehmen im Bereich ML Ops begegnen, und wie Weights & Biases als führende Plattform in diesem Bereich Lösungen bietet. Robby erklärt, wie wichtig es ist, die richtigen Tools und Prozesse zu implementieren, um den gesamten ML-Lebenszyklus effizient zu verwalten – von der Datenvorbereitung über das Training und die Modellüberwachung bis hin zur Modellbereitstellung. Ein besonderer Fokus liegt auf den spezifischen Anforderungen und Best Practices rund um LLMs und Generative AI. Robby teilt seine Einsichten darüber, wie man die Komplexität dieser Modelle handhaben kann und welche Rolle Weights & Biases dabei spielt, die Entwicklungs- und Betriebsprozesse zu optimieren. Hör rein, um mehr über die neuesten Entwicklungen im Bereich ML Ops zu erfahren und wie du deine ML- und AI-Projekte auf das nächste Level bringen kannst. Diese Episode ist ein Muss für alle, die sich für die effiziente und skalierbare Implementierung von Machine Learning interessieren. Für mehr Informationen zum Thema Data Science, besuche gerne unsere Website: https://datamics.com/ Oder nimm an einem unserer zahlreichen Onlinekurse teil: https://www.udemy.com/user/datamics/ Um mit Robby in Kontakt zu treten, besuche gerne sein LinkedIn Profil oder die Homepage von Weights & Biases: https://www.linkedin.com/in/robby-hornig-6b200841 https://wandb.ai/site

Marketing-Automatisierung mit künstlicher Intelligenz
+++ Unsere 26. Podcast-Episode: Erfolgreiche Marketing-Automatisierung: Tipps von Annette Czanaky +++ Hallo und herzlich willkommen zur neuen Episode des Podcasts „Data Science mit Milch und Zucker“. Heute begrüße ich Annette Czanaky, Gründerin von Techwanderer. Sie war Vice President und Head of IT Consulting & Data Analytics bei DHL und ist jetzt als Trainerin und Consultant im Bereich künstliche Intelligenz erfolgreich selbstständig. In dieser Episode teilt sie ihre Expertise zur Automatisierung im Marketing. Annette spricht darüber, wie ihr KI effizient in Marketingprozesse wie E-Mail-Marketing und Webseiten einsetzen könnt - und trotzdem euren persönlichen Stil nicht verliert. Sie erklärt, wie wichtig es ist, alle Beteiligten einzubinden, klare Visionen und Ziele zu entwickeln und die Prozesse kontinuierlich anzupassen. Außerdem gibt Annette praktische Insider-Tipps zur Nutzung von Tools wie GPT und Automatisierungsplattformen um Texte, E-Mails, Grafiken und mehr zu erstellen und eure Arbeitsprozesse zu vereinfachen. Wir freuen uns, dass wir euch in dieser Folge diese wertvollen Einblicke in die Nutzung von KI im Marketing geben können. Vielen Dank fürs Zuhören und viel Spaß mit der Episode! Für mehr Informationen zum Thema Data Science, besuche gerne unsere Website: https://datamics.com/ Oder nimm an einem unserer zahlreichen Onlinekurse teil: https://www.udemy.com/user/datamics/ Um mit Annette in Kontakt zu treten, besuche gerne ihr LinkedIn Profil oder die Homepage der Techwanderer: https://www.linkedin.com/in/annette-c-9a7551139/ https://www.techwanderer.de/

From Algorithm to Application: A Look into the World of Data Science with Falcony AI
+++Unsere 25. Podcast-Episode: Vom Algorithmus zur Anwendung: Ein Blick in die Welt von Data Science mit Falcony AI+++ +++ English Version below +++ In dieser Folge begrüßt René seinen Gast Mirza Klimenta den Gründer von Falcony AI, der uns tiefe Einblicke in spannende DataScience-Projekte geben wird. Wir tauchen gemeinsam ein in faszinierende Themen wie Recommender-Systeme, Kausalität und seine Erfahrungen mit verschiedenen Datenprojekten. Mirza teilt offen sein Wissen über Algorithmenforschung bis zur praktischen Anwendung in verschiedenen Branchen mit uns! Wir werden dabei z.B. über die Zusammenarbeit mit einem Unternehmen sprechen, das sich auf Inkasso spezialisiert hat. Mirza und sein Team entwickeln Modelle zur Vorhersage der Wahrscheinlichkeit von Zahlungseingängen bei Bankkunden. Mirza gibt euch auch wertvolle Tipps, etwa die Wichtigkeit einer gründlichen Anfangsanalyse der Daten und das Verständnis ihrer Verteilung, bevor man überhaupt Modelle auswählt. Er betont, wie entscheidend es ist, einfache Basismodelle als Vergleichsgrundlage zu verwenden, bevor komplexere Ansätze wie Graph Neural Networks und Cloud-basierte Lösungen angewendet werden. Diese Episode bietet nicht nur einen Einblick in aktuelle Projekte und Technologien, sondern auch praktische Ratschläge für Data Scientists, die ihre Methodik verfeinern wollen. Ein Muss für jeden, der sich für die Schnittstelle von Datenwissenschaft und realen Anwendungen interessiert. +++ English Version +++ In this episode, René welcomes his guest Mirza Klimenta, the founder of Falcony AI, who will provide deep insights into exciting data science projects. Together, we delve into fascinating topics such as recommender systems, causality, and his experiences with various data projects. Mirza openly shares his knowledge from algorithm research to practical application across different industries! For instance, we will discuss his collaboration with a company specializing in debt collection. Mirza and his team are developing models to predict the likelihood of payment receipts from bank clients. Mirza also offers valuable tips, such as the importance of a thorough initial analysis of the data and understanding their distribution before even selecting models. He emphasizes how crucial it is to use simple baseline models as a point of comparison before applying more complex approaches like Graph Neural Networks and cloud-based solutions. This episode not only provides a glimpse into current projects and technologies but also offers practical advice for data scientists looking to refine their methodologies. It's a must-listen for anyone interested in the intersection of data science and real-world applications.

Die Revolution der Vektor-Datenbanken: Ein Gespräch mit Andre Zayarni von Qdrant
+++Unsere 24. Podcast-Episode: Die Revolution der Vektor-Datenbanken: Ein Gespräch mit Andre Zayarni von Qdrant+++ In der 24. Episode unseres Podcasts "Data Science mit Milch und Zucker" begrüßen wir Andre Zayarni, Mitbegründer und Geschäftsführer von Qdrant. Das Berliner Start-up Qdrant, bekannt für seine Entwicklung fortschrittlicher Speichersysteme für KI-Daten, genießt wachsende Popularität, insbesondere durch ihre Vektor-Datenbanktechnologie. Diese ermöglicht es, unstrukturierte Daten blitzschnell zu verarbeiten und zu analysieren, was sie ideal für Vektor-Suchmaschinen und ähnliche Anwendungen macht. Andre erklärt die Funktionsweise und die Vorteile von Vektor-Datenbanken, die insbesondere in der semantischen Suche und bei Produktempfehlungen zum Einsatz kommen - und wie man auf dem Gebiet keine kalten Füße bekommt. Wir diskutieren auch, wie Qdrant die Herausforderungen großer Sprachmodelle (LMMs) mit Hilfe von Echtzeitdatenbanken angeht. Zu den Nutzern gehören namhafte Unternehmen wie Deloitte, Bayer und Bosch, was die breite Akzeptanz und Anwendung ihrer Technologie zeigt. Andre teilt abschließend wertvolle Einblicke für angehende Data Scientists und Gründer, darunter die Bedeutung des kontinuierlichen Lernens und die Vorteile von Open Source in der Tech-Welt. Er betont, dass ein Großteil der weltweiten Daten irgendwann in Vektorform gespeichert sein wird, was das enorme Potenzial der von Qdrant entwickelten Technologie verdeutlicht.

The World of Data: A Podcast on Knowledge Graphs and Databases
+++Unsere 23. Podcast-Episode: Die Welt der Daten: Ein Podcast über Wissensgraphen und Datenbanken+++ (English Version below) In der aktuellen Folge unseres Datenwissenschafts-Podcasts widmen wir uns einem Thema, das für viele im Bereich der künstlichen Intelligenz und Datenanalyse von zentraler Bedeutung ist. Gemeinsam mit Sruthi Radhakrishnan, einer erfahrenen AI Consultant bei itemis, beleuchten wir die Grundlagen und fortgeschrittenen Konzepte, die diese Technologien so kraftvoll und unverzichtbar machen. Sruthi teilt mit uns ihr fundiertes Wissen und ihre praktischen Erfahrungen, um einen detaillierten Überblick über die Welt der Wissensgraphen zu geben. Wir diskutieren, was Wissensgraphen sind, wie sie funktionieren und warum sie ein unverzichtbares Werkzeug in der modernen Datenwissenschaft darstellen. Besonderes Augenmerk legen wir auf die verschiedenen Arten von Datenmodellierungen und Einbettungen, die für die effektive Nutzung von Wissensgraphen entscheidend sind. Ebenso tauchen wir tief in die Thematik der Graphdatenbanken ein und vergleichen sie mit Vektordatenbanken. Dabei betrachten wir die spezifischen Anwendungsfälle und Vorteile, die Graphdatenbanken bieten. Sruthi bietet nicht nur Einblicke in die technischen Aspekte, sondern gibt auch wertvolle Ratschläge für diejenigen, die ihre Kenntnisse in Data Science erweitern möchten. Ob du neu in diesem Feld bist oder deine Fähigkeiten vertiefen möchten, diese Episode bietet praktische Tipps und Einblicke. Diese Episode inspiriert dazu, auszuprobieren, wie diese Technologien genutzt werden können, um die Grenzen dessen, was mit Daten möglich ist, neu zu definieren. Bereite dich darauf vor, die Tiefe und Breite der Datenwissenschaft zu erkunden und entdecke , wie Wissensgraphen und Datenbanken die Landschaft der Informationstechnologie umgestalten. +++++ English Version +++++ In the latest episode of our Data Science Podcast, we delve into a topic that is of paramount importance to many in the field of artificial intelligence and data analysis. Alongside Sruthi Radhakrishnan, an experienced AI Consultant at itemis, we illuminate the fundamental and advanced concepts that make these technologies so powerful and indispensable. Sruthi shares her in-depth knowledge and practical experience to provide a detailed overview of the world of knowledge graphs. We discuss what knowledge graphs are, how they function, and why they are an essential tool in modern data science. Special attention is paid to the various types of data modeling and embeddings that are crucial for the effective use of knowledge graphs. We also dive deeply into the subject of graph databases and compare them with vector databases, considering the specific use cases and benefits that graph databases offer. Sruthi provides not just insights into the technical aspects, but also valuable advice for those looking to expand their knowledge in data science. Whether you are new to this field or looking to deepen your skills, this episode offers practical tips and insights. This episode inspires listeners to explore how these technologies can be utilized to redefine the boundaries of what is possible with data. Prepare to explore the depth and breadth of data science and discover how knowledge graphs and databases are transforming the landscape of information technology.

Audiobearbeitung mit maschinellem Lernen
In diesem Podcast diskutieren wir mit Felix Burkhardt, Leiter der Forschung bei AudEERING, über Anwendungen der Audiobearbeitung mit maschinellem Lernen. Wir gehen auf verschiedene Bereiche wie Sprach- und Nicht-Sprach-Audioanalyse ein und betonen die Bedeutung der Mensch-Maschine-Interaktion. Beispiele sind intelligente Kopfhörer, die den Klang basierend auf der Umgebung anpassen, und die Erkennung von Emotionen zur Verbesserung der menschenähnlichen Kommunikation in verschiedenen Bereichen wie Gaming, Automobil und Gesundheitswesen. Felix hebt Herausforderungen wie das Labeln von Daten für das Training von Modellen und die Notwendigkeit von generalisierbaren Lösungen in der domänenspezifischen KI-Landschaft hervor.

Unlocking Data Science Excellence: Insights for Novices and Pros in Large Corporations
+++Unsere 21. Podcast-Episode: Data Science und Organisation+++ (English Version below) In unserer neuesten Podcast-Episode sprechen wir mit Dr. Carlotta Schatten, Engineer Manager bei Autoscout24, über spannende Aspekte im Bereich Data Science und Unternehmensorganisation. Wir diskutieren die Bedeutung von Data Science in Unternehmen, strukturelle Herausforderungen, Corporate Value, Data Drift und vieles mehr. Wir beleuchten zentrale organisatorische Faktoren, den Bedarf an Data Science, funktionale und technische Anforderungen sowie die Notwendigkeit von Flexibilität. Besonders interessant ist die enge Zusammenarbeit zwischen Product Managern und dem Data Science Team, die oft in Organisationen mit zentralisierten Data Teams eine Herausforderung darstellt. Wir erörtern, wie ein datengetriebenes Mindset in der gesamten Struktur verankert werden kann und welche Vorteile sich daraus ergeben. In zentralisierten Data Teams arbeiten Data Analysts, Data Engineers und Data Scientists mit unterschiedlichen Wissensschwerpunkten, die sich auf die Bedürfnisse interner Kunden spezialisiert haben. Wir erläutern die verschiedenen Rollen und Aufgaben dieser Teammitglieder im Podcast. Transparenz ist entscheidend, wenn es darum geht, komplexe Machine Learning Modelle und ihre Funktionsweise für interne User verständlich zu erklären. Wir betonen die Wichtigkeit, Abweichungen zwischen Trainingsdaten und realen Daten zu beachten und Experten hinzuzuziehen, wenn Probleme auftreten. Carlotta teilt auch Einblicke in die Automatisierung von Deployment-Prozessen und zeigt anhand von interessanten Beispielen, inwieweit dies möglich und sinnvoll ist. Zum Abschluss gibt es wertvolle Tipps für Anfänger im Data-Science-Bereich. Hol deine Kopfhörer raus und lass dich von dieser spannenden Episode inspirieren! +++++ English Version +++++ In our latest podcast episode, we discuss exciting aspects of Data Science and organizational structure with Dr. Carlotta Schatten, Engineering Manager at Autoscout24. We delve into the significance of Data Science in businesses, structural challenges, Corporate Value, Data Drift, and much more. We shed light on crucial organizational factors, the demand for Data Science, functional and technical requirements, and the need for flexibility. Of particular interest is the close collaboration between Product Managers and the Data Science Team, which often poses a challenge in organizations with centralized Data Teams. We explore how a data-driven mindset can be embedded throughout the structure and the benefits it brings. In centralized Data Teams, you'll find Data Analysts, Data Engineers, and Data Scientists with varying areas of expertise, specialized to cater to the needs of internal customers. We explain the different roles and responsibilities of these team members in the podcast. Transparency is key when it comes to making complex Machine Learning models and their operation understandable to users. We emphasize the importance of acknowledging discrepancies between training data and real data, and involving experts when issues arise. Carlotta also shares insights into the automation of deployment processes and illustrates to what extent this is possible and practical with intriguing examples. To wrap up, we offer valuable tips for beginners in the Data Science field. Grab your headphones and let this exciting episode inspire you!

MLOps von A-Z
In der zwanzigsten Episode unseres Data Science Podcasts nehmen wir uns die Zeit, um tief in die Welt der Machine Learning Operations einzutauchen. Dr. René Brunner spricht mit Siegfried Eckstedt von AIKU über die Herausforderungen, die bei der Umsetzung von MLOps auftreten können. Siggi stellt dabei klar dass sich bewährte Architekturen oft branchenübergreifend unverändert einsetzen lassen. Wir konzentrieren uns auf die einzigartigen Aspekte von MLOps und zeigen, wie Modelle erfolgreich in produktive Umgebungen überführt werden können und welchen Benefit man dabei hat wenn man dabei über den Tellerrand hinausschaut und andere Abteilungen im Unternehmen mit einbezieht. Dabei spielt auch das Testing eine große Rolle! Wenn du denkst ein End-to-End Test ist der ultimative Check, dann hör rein was es mit der Testpyramide auf sich hat. Außerdem schmunzeln wir mit der Kiss and Kick Me Methode, die einem letztlich doch hilft, den MLOps-Prozess auf intelligente Weise zu vereinfachen und gleichzeitig mögliche Stolpersteine zu identifizieren und zu umgehen. Es ist informativ und spannend zugleich - lass uns gemeinsam die Welt der Machine Learning Operations von A bis Z erkunden!

Skalierung in DS Projekten
In der neunzehnten Episode unseres Data Science Podcasts spricht Dr. René Brunner mit Dr. Gordon Euchler über das spannende Thema Skalierung in Data Science Projekten. Hierbei geht der Direktor für Brand Development & Communication bei Deloitte zum Beispiel auf die Schnittstellen zwischen Data Science Projekten und Werbung ein Er erzählt anschaulich und mit vielen Beispielen aus dem echten Leben, was der "Unfug" (cit.) aus der Werbung mit Data Science zu tun hat, was genau Excitement Points sind und worum es bei der Erbsünder der Werbung geht. Außerdem erzählt Gordon begeistert von seinem Projekt der "30 Minute - University of Planning" bei dem Mentoren und Mentees für 30 Minuten zusammen kommen und voneinander lernen.

MLOps Insights
In der achtzehnten Episode unseres Data Science Podcasts spricht Dr. René Brunner mit Dr. Michael Berthold über seine gewonnenen Erkenntnisse und gesammelten Erfahrungen als Professor an der Universität Konstanz und CEO der KNIME AG was das Thema Automatisierung von Modellen und MLOps betrifft. Du fragst dich, was der Wilde Westen mit MLOps zu tun hat? Michael erklärt anschaulich die Problematiken und verschiedenen Lösungsansätze und Optimierungsprozesse die in der realen Wirtschaft eingesetzt werden. Weg von der Theorie hin zum Einsatz tatsächlicher Resultate in der Produktion. KNIME ist eine Open-Source-Plattform zur Datenanalyse, -verarbeitung und -visualisierung. Mit einer benutzerfreundlichen Schnittstelle bietet KNIME eine Vielzahl an Tools und Algorithmen, um komplexe Datensätze effizient zu bearbeiten. Durch die Integration von Technologien wie maschinellem Lernen und Big Data ermöglicht KNIME eine flexible und leistungsstarke Datenanalyse für Fachleute aus verschiedenen Bereichen.

Data Science Competitions
In der siebzehnten Episode unseres Data Science Podcasts spricht Dr. René Brunner mit Dr. Christof Henkel über seine Erfahrung als Kaggle Grandmaster, wie viele Stunden Zeit er investiert hat und wie man als Anfänger am besten an diese Sache rangeht. Kaggle ist eine Plattform für Machine Learning und Data Science mit einer aktiven Community von über 10 Millionen Nutzern. Grandmaster zu werden erfordert eine herausragende Leistung in mindestens fünf Wettbewerben, bei denen man unter den Top 10 von 1000 Teams sein muss - eine wirklich beeindruckende Leistung. Dabei vergisst Christof niemals den Spaß bei der Sache und geht die Wettbewerbe ganz pragmatisch an - er hat ein paar wirklich interessante Insider-Tipps für uns!

Data Science in der Forschung
In der sechzehnten Episode spricht Prof. Dr. Brunner mit Dr. Matthias Hofmann über Data Science in der Forschung. Hierbei diskutieren sie verschiedene Forschungsschwerpunkte und Herausforderungen, welchen man in der Forschung begegnen kann. Auf diese Weise beleuchten sie die Schnittstelle von Data Science und Forschung, um genauer zu betrachten, wie sich diese auf die Arbeit innerhalb des Bereichs auswirkt. Gemeinsam gehen sie auch darauf ein, wie Data Science dazu beitragen kann, Forschungsprozesse zu verbessern und neue Erkenntnisse zu gewinnen.

Data Science Teams
In der fünfzehnten Episode spricht Prof. Dr. Brunner mit Georg Gabelmann darüber, wie man ein erfolgreiches KI-Team von Grund auf aufbaut. Ohne ein funktionierendes Team ist die korrekte Durchführung von KI-Projekten unmöglich – Teamwork makes the dream work. Aus diesem Grund werfen Prof. Dr. Brunner und Georg Gabelmann einen Blick auf die wichtigsten Schritte innerhalb des Teamaufbauprozesses, um sicherzustellen, dass die Teams effektiv arbeiten und KI-Projekte nicht nur möglich, sondern auch erfolgreich werden lassen. Hierfür teilen sie bewährte Praktiken von erfolgreichen KI-Teams, um praktische Einblicke in die Schritte zu geben, die reibungslose Zusammenarbeit von Teams möglich machen.

Lessons Learned
In der vierzehnten Episode befasst sich Prof. Dr. Brunner gemeinsam mit Gast Dr. Shahzad Cheema, Lead AI Algorithms Expert im Huawei Nuremberg Research Center, mit verschiedenen Themen im Bereich Data Science. Dr. Cheema, teilt seine "Lessons Learned" aus der Arbeit an zahlreichen Projekten und gibt wertvolle Tipps für das Set Up von AI-Projekten. In der Episode werden auch die Unterschiede in der Arbeit im Bereich Data Science zwischen den USA und Deutschland diskutiert. Hierbei teilt Dr. Cheema seine Erfahrungen und Beobachtungen aus beiden Ländern und gibt Einblicke in die Arbeitskultur und die Herausforderungen, die sich in beiden Kontexten stellen. Die Folge bietet eine informative und unterhaltsame Diskussion für alle, die sich für die Themen Data Science, künstliche Intelligenz und internationale Arbeitskulturen interessieren.

Knowledge Graphs
In der dreizehnten Episode spricht Prof. Dr. Brunner mit Dr. Matthias Herz über Knowledge Graphs und wie Unternehmen und Organisationen von dieser Technologie profitieren können. Ein Knowledge Graph ist eine Art von Wissensmanagement-System, das es ermöglicht, Wissen auf strukturierte Weise zu organisieren und zu verknüpfen. Im Gegensatz zu herkömmlichen Datenbanken oder Suchmaschinen können Knowledge Graphs die Beziehungen zwischen den verschiedenen Informationen besser abbilden und somit ein tieferes Verständnis für komplexe Themenbereiche ermöglichen. Sie erklären auch den Begriff Ontologie und wie er in Knowledge Graphs verwendet wird, um die Struktur und die Bedeutung von Konzepten und Beziehungen darzustellen.

People Analytics
In unserer zwölften Folge sprechen Prof. Dr. René Brunner von Datamics und Nicole Höllebrand von Microsoft Viva, über People Analytics und wie die Arbeit mit personenbezogenen Daten aussieht. Sie beleuchten, wie sich die Arbeit mit Personen von Machine Learning unterscheidet und wie gängige Fragestellungen in People Analytics lauten. Wie genau mit People Analytics gearbeitet wird, welche Vorteile und Insights es bringt und wie es sich entwickelt erfahrt ihr hier!

Nachhaltigkeit in Data Science
In unserer elften Folge sprechen Prof. Dr. René Brunner von Datamics und Oliver Hirschfelder Strategy & Sustainability Consultant bei Siemens Energy darüber, wie Nachhaltigkeit in Data Science eigentlich aussieht. Data Science und Technologie können eine entscheidende Rolle bei der Lösung von Nachhaltigkeitsproblemen spielen. Deswegen zeigen sie auf, wie Datenanalyse, maschinelles Lernen und andere Data Science Methoden in Bereichen wie Energieeffizienz, Abfallmanagement und Umweltüberwachung eingesetzt werden können. Hierbei wird vor allem die Wichtigkeit, eine umfassende Sicht auf Nachhaltigkeitsprobleme zu haben und Daten und Technologie als Teil einer größeren Lösung zu sehen, betont. Data Science kann bei der Überwachung und Überprüfung von Nachhaltigkeitsinitiativen und -zielen eingesetzt werden, um Fortschritte zu messen und zu bewerten.

Internationale Data Science Projekte
In unserer zehnten Folge sprechen Prof. Dr. René Brunner von Datamics und Gunnar David, Senior Data Science and Analytics Manager ex-ABINBEV darüber, wie die Arbeit in Data Science im Ausland aussehen kann. Die Arbeit in internationalen Teams und in Projekten, die spezifisch auf jeweilige Länder und Kulturen angepasst sind und sein müssen, bringen einige Herausforderungen mit sich. Wie man diese meistern und die Zeit im Ausland effektiv nutzen kann, erklären wir in dieser Episode.

Data Mesh
In unserer neunten Folge sprechen Prof. Dr. René Brunner von Datamics und Timur Sereflioglu, über Data Mesh und wie man mit der fast schon endlosen Fülle von Daten umgehen kann. Hierbei sprechen sie darüber, was Data Mesh eigentlich ist - die Idee dahinter, wozu es gut ist und wie es angewandt werden kann. Wie die Umsetzung in Unternehmen aussieht und was Data Mesh für einen Nutzen hat erfahrt ihr hier!

Der Business Impact von Data Science
In unserer achten Folge sprechen Prof. Dr. René Brunner von Datamics und Marcus Hartmann, dem Chief Data Officer bei PwC, über den Business Impact, den Data Science in Unternehmen generieren kann. Vor allem wird das Zusammenspiel und die Zusammenarbeit von Data Science und Business beleuchtet, was es zu beachten gibt und wo genau die Herausforderungen liegen. Mithilfe von konkreten Beispielen erläutern sie, wie Data Science im Produktbereich genutzt werden kann, um dort einen Mehrwert zu schaffen.

Deep Tech Startups
In unserer siebten Folge sprechen Prof. Dr. René Brunner von Datamics und Dr. Marcel Lotz, von MUST - The Munich Innovation Ecosystem, über Gründung von Deep Tech Startups. Besonders erzählt er uns über das spannende Projekt AI + Munich, welches Personen die im Bereich Deep Tech ein Unternehmen Gründen möchten, unterstützen kann und welche Themen diesem Projekt am Herzen liegen. Ebenfalls werden Erkenntnisse zu Unternehmensgründung, Vorurteile gegenüber KI, Talentfindung im Bereich Deep Tech und unternehmensrelevante Entscheidungen geteilt.

Data Scientist Recruiting
In der sechsten Folge sprechen Prof. Dr. René Brunner von Datamics und Vincenzo Porpiglia von P+L Data Recruitment darüber, wie Unternehmen in der Data Science Branche die richtigen Kandidaten/ Kandidatinnen in ihr Team gewinnen können. Gleichzeitig gibt es zahlreiche Tips & Tricks vom Recruiter, die Bewerber/-innen dabei helfen sollen, ihre Überzeugungschancen bei Bewerbungen zu erhöhen.

IoT Herausforderungen überwinden
In der fünften Folge sprechen Prof. Dr. René Brunner von Datamics und Kai Schwab von Crosser darüber, welche Herausforderungen im Data Science Umfeld, spezifisch bezüglich IoT Prozesse, strategisch überwunden werden können.

Der AI Wandel
In der vierten Folge sprechen Prof. Dr. René Brunner von Datamics und Marlin Watling von 129 & Lumen Partners worauf man achten muss, um den AI Wandel erfolgreich ermöglichen zu können. Hierfür beziehen sie sich auf ihre vergangenen Erfahrungen sowie ihre Arbeit in ebendiesem Bereich, um sowohl dem Management sowie den Data Scientists konkrete Tipps und Ratschläge geben zu können.

Data Coaching
In der dritten Folge sprechen Prof. Dr. René Brunner von Datamics und Data Coach Sarah Stemmler darüber, wie genau Data Coaching eigentlich aussieht. Hierbei beantworten sie die Fragen, wie Data Coaching Unternehmen dabei helfen kann, sich weiterzuentwickeln, Prozesse zu verbessern, um die Qualität sowie Effizienz zu steigern und innovativer zu werden.

Data Compliance
In der zweiten Folge sprechen Prof. Dr. René Brunner von Datamics und Technical Compliance Manager Dr. Ingo Stock darüber, was Compliance im Data Science Bereich eigentlich beinhaltet. Von Datenschutz, über die Verfügbarkeit und Besitz der Daten bis hin zu den Gesetzen, die die Arbeit mit Daten beeinflussen - mithilfe von Use Cases behandeln sie alles, worauf man in Data Science achten muss.

Mehr Wirkung durch bessere Daten: Was moderne ML-Projekte wirklich brauchen
++++ Folge 1: Mehr Wirkung durch bessere Daten: Was moderne ML-Projekte wirklich brauchen++++ (english below) In dieser Folge spricht Eric Joachim Liese über die wahren Erfolgsfaktoren moderner Machine-Learning-Projekte. Statt sich monatelang mit Modelloptimierung aufzuhalten, rät er zu einem datengetriebenen Ansatz: bessere Datenqualität, gezieltes Labeling mit Active Learning, sowie ein klarer Fokus auf Operationalisierung und MLOps. Wir beleuchten typische Herausforderungen in deutschen Unternehmen, den Wandel vom Data Scientist zum ML Engineer und wie sich durch moderne Infrastruktur Use Cases schneller und skalierbarer umsetzen lassen. Ein Gespräch für alle, die KI nicht nur diskutieren, sondern wirklich produktiv machen wollen. ++++ english ++++ In this episode, Eric Joachim Liese shares key insights on how to make machine learning impactful in real business environments. Rather than over-optimizing models, he advocates a shift toward data quality, Active Learning for smarter labeling, and structured MLOps to accelerate delivery. The discussion covers organizational gaps, cultural blockers in German companies, and the evolving role of ML engineers. Learn how to move from experimentation to execution – and how the right infrastructure enables faster, repeatable, and scalable AI use cases.
