I regularly speak at conferences, corporate events, and workshops across Europe on AI strategy, data infrastructure, and practical implementation. Below you’ll find my current talk portfolio – from keynotes to hands-on sessions.
Download my speaker kit with photos and bio or get in touch directly.
Dauer: 45 Minuten | Format: Keynote + Interactive Session

Beschreibung:
Die meisten KI-Projekte scheitern nicht an der Technologie, sondern an schlecht definierten Use Cases. In diesem Vortrag zeige ich den bewährten Pandata AI Innovation Canvas – ein Framework, das aus über 50 Projekten entstanden ist. Wir durchlaufen gemeinsam den Prozess von der Problemdefinition über Datenquellen-Check bis zur Machbarkeitsbewertung.
Teilnehmer lernen:
Zielgruppe: C-Level, Produktmanager, Innovation Teams
Takeaway: Canvas-Prozess für eigene Use Case Exploration
Dauer: 40 Minuten | Format: Technical Deep-Dive

Beschreibung:
“Wir haben keine Daten” ist die häufigste Ausrede für gescheiterte AI-Initiativen. Die Wahrheit: Die meisten Unternehmen haben Daten – sie sind nur nicht zugänglich, strukturiert oder dokumentiert. Dieser Vortrag zeigt den pragmatischen Weg von chaotischen Datensilos zu einer KI-fähigen Infrastruktur – ohne jahrelange Data-Warehouse-Migration.
Teilnehmer lernen:
Zielgruppe: CDOs, CTOs
Takeaway: Checkliste “AI Data Readiness Assessment” + Architektur-Blueprint
Dauer: 35 Minuten | Format: Case Study Showcase

Beschreibung:
KI für Prozessoptimierung klingt verlockend – aber wann macht “Make” Sinn und wann sollte “Buy”? Anhand konkreter Beispiele aus unserem Portfolio (Support-Automatisierung mit RAG, Budget-Allokation, Pricing-Optimierung) zeige ich, wie man den ROI maximiert und typische Fallen vermeidet. Spoiler: Nicht jeder Prozess braucht ein Custom-LLM.
Teilnehmer lernen:
Zielgruppe: CPOs, CSOs, Fachbereichsleiter, Prozessverantwortliche
Takeaway: Decision Framework “AI Process Optimization Canvas”
Dauer: 30 Minuten | Format: Live Demo + Technical Talk

Beschreibung:
SQL-Kenntnisse als Voraussetzung für Datenanalyse? Das war gestern. Mit dem Query Pilot zeige ich live, wie Sprachmodelle zur natürlichen Schnittstelle ins Data Warehouse werden – 100% datenschutzkonform durch ausschließliche Metadaten-Nutzung. Ein Game-Changer für Data Democratization.
Teilnehmer lernen:
Zielgruppe: Data Leads, BI-Teams, CDOs
Takeaway: Live-Demo des Query Pilots + Technical Architecture Guide
