Talks

Selected talks I've given at conferences, meetups, and company events. Click any talk to expand. 🇩🇪 German, 🇺🇸 English · Talk Workshop Keynote Online

2026

Part of the "Chat with your Data" session (Session Chair: Bernhard Mitschang). Explores how AI agents can autonomously discover, understand, and query enterprise data products through the Model Context Protocol (MCP) — leveraging data contracts that define schema, semantics, and usage policies for safe and governed access at scale.

Program

Part of the "Data Products" session (Session Chair: Holger Schwarz). A comprehensive look at the open standards landscape for data products: Open Data Contract Standard, Open Data Product Standard, observability formats, and semantic standards — what they cover, where they overlap, and how they are evolving.

Program

Offene Standards gewinnen in der Datenprodukt-Welt zunehmend an Bedeutung – zu Recht, denn sie helfen, Vendor-Lock-in zu vermeiden und treiben Innovation voran. Wir betrachten, welche Standards existieren, was sie abdecken, woher sie kommen und wohin sie sich entwickeln – auch dort, wo sie konkurrieren. Dazu gehören Standards für Data Contracts, Data Products, Observability und Semantik. Nach dieser Session verstehen Sie die aktuelle Standardlandschaft und wissen, welche Standards heute relevant sind.

Track: Data Management · Programm

An exploration of two competing philosophies for adopting data contracts: starting from existing data sets and lifting them under contract (data-first), versus designing the contract before any data exists (contract-first). The talk discusses the trade-offs, when each approach makes sense, and how teams can transition between them as their data mesh matures.

Program

Hands-on lab introducing data contracts through the Open Data Contract Standard and the Data Contract CLI. Attendees specify their first data contracts, add quality checks, validate them against real datasets, and explore how the open-source tooling fits into a CI/CD pipeline.

Program

„Daten sind das neue Gold" – dieser Satz war einmal das Mantra einer ganzen Generation von Softwareentwickler:innen. Doch während wir ihn heute noch zitieren, hat sich die Bedeutung von Daten fundamental verändert. In diesem Talk werfen wir einen Blick zurück und nach vorn: von den ersten datengetriebenen Systemen der 1960er über die Ära von Data Warehouses und NoSQL bis hin zu den heutigen Herausforderungen durch LLMs, Data Contracts und KI-gestützte Systeme. Wir diskutieren, warum Daten heute nicht mehr nur gesammelt, sondern verstanden, verknüpft und vertraglich definiert werden müssen – und wie sich dadurch Rollen, Verantwortung und Architekturprinzipien verändern.

Event-Seite

Open standards are becoming increasingly important in data mesh architecture to prevent vendor dependency and foster innovation. The talk covers data contracts, data products, observability, and semantic standards — examining their origins, future direction, and comparative value to help audiences understand current relevance and what's emerging.

Hosted by Tom De Wolf (ACA Group) · Event page

Agentic AI ist der nächste große Schritt der generativen KI: autonome Agenten, die eigenständig Ziele verfolgen, Werkzeuge nutzen und als Multi-Agenten-Systeme auch komplexe Aufgaben ohne menschliches Zutun bewältigen.

Simon Harrer gibt einen praxisorientierten Überblick darüber, welche dieser Versprechen in Software-Entwicklung und Architekturarbeit bereits eingelöst werden können und wo die Grenzen liegen. Ein besonderer Schwerpunkt liegt auf einem Thema, das in der aktuellen Begeisterung häufig zu kurz kommt: Data Governance. Denn Agenten sind nur so gut wie die Daten, auf deren Grundlage sie handeln. Fehlen klare Vorgaben zu Datenqualität, Zugriffssteuerung und Compliance, wird aus einem intelligenten Helfer schnell ein unkontrollierbares Risiko. Agentic AI ohne solide Data Governance ist daher kaum denkbar.

Zum Abschluss richtet er den Blick nach vorne: Welche Entwicklungen zeichnen sich ab, und was muss heute getan werden, damit der produktive Einsatz von Agentic AI morgen gelingt?

Event-Seite

Data Contracts erlauben Daten als Schnittstellen verlässlich zu spezifizieren und stellen damit Vertrauen her – was gerade in dezentralen Datenarchitekturen wie Data Mesh essentiell ist. Wir zeigen Ihnen, warum man das braucht, aber auch wie das geht. Dazu nutzen wir den Open Data Contract Standard der Linux Foundation um Data Contracts zu spezifizieren und die populäre Open-Source-Software Data Contract CLI um damit zu automatisieren.

Im Workshop nehmen wir zunächst bestehende Daten unter Vertrag (Data-first) — wir erstellen einen ersten Entwurf eines Data Contracts, fügen Qualitätschecks hinzu, testen die Daten gegen den Contract, erstellen eine Dokumentation und einen Katalog. Anschließend drehen wir den Spieß um: in Gruppen wird ein Data Contract von Grund auf neu erstellt (Contract-first), basierend auf realen Anforderungen als Data Consumer und Data Producer. Zum Abschluss reflektieren wir in einer kurzen Retro über Automatisierungspotentiale.

Event-Seite

2025

Die vierte Säule von Data Mesh heißt Federated Computational Governance. Sie ist besonders schwer umzusetzen: Es soll einfach sein, das Richtige zu tun – und schwer, das Falsche zu tun. Gute Data Governance ist dafür zentral.

Governance-Regeln werden meist in natürlicher Sprache formuliert – oft mit rechtlichen Vorgaben wie der DSGVO. Wir schlagen vor, Generative AI (GenAI) wie GPT-4o zu nutzen, um diese Regeln automatisch anhand von Metadaten zu prüfen.

Beispiele: PII-Kennzeichnung, Einhaltung von Coding-Guidelines, Prüfung von Nutzungszwecken bei Datenzugriffen.

Wir zeigen eine beispielhafte Umsetzung im Data Mesh Manager und geben einen Ausblick auf die Zukunft der Data Governance.

Event-Seite

Ihr möchtet euch mit Data Contracts vertraut machen? Wir zeigen euch, wie das geht, anhand des Open Data Contract Standard und der Open-Source-Software Data Contract CLI. Wir nehmen bestehende Daten unter Vertrag, ergänzen Quality Checks, testen die Daten und generieren eine Dokumentation. Anschließend entwerfen die Teilnehmer in Gruppen neue Data Contracts und schlüpfen dabei in die Rollen von Data Producern, Consumern und Moderatoren. Zum Abschluss werfen wir einen Blick darauf, wie Data Contracts die Automatisierung weiter vorantreiben.

Event-Seite

Data Contracts erlauben Daten als Schnittstellen verlässlich zu spezifizieren und stellen damit Vertrauen her – was gerade in dezentralen Datenarchitekturen wie Data Mesh essentiell ist. Wir zeigen Ihnen, warum man das braucht, aber auch wie das geht. Dazu nutzen wir den Open Data Contract Standard der Linux Foundation um Data Contracts zu spezifizieren und die populäre Open-Source-Software Data Contract CLI um damit zu automatisieren.

Event-Seite

Part of the "Data Production 1" session (Session Chair: Holger Schwarz) at the 19th Symposium and Summer School on Service-Oriented Computing. The talk covers the Open Data Contract Standard and the Open Data Product Standard from the Linux Foundation Bitol project, and shows reference implementations like the Data Contract CLI and Data Mesh Manager that operationalize these specifications in real data architectures.

Program

How data interfaces can be treated with the same rigor as software APIs. Drawing parallels to OpenAPI and AsyncAPI, the talk introduces the Open Data Contract Standard and shows how data contracts establish explicit, well-documented and stable interfaces for data — including a live demo of validating real datasets against a contract using open source tools. Part of the OpenAPI Track.

Event page

A workshop on standardizing data product platform capabilities for intra- and inter-organizational ecosystems. Goals: collect common platform capabilities, clarify their relationship to neighbouring standards like data contracts, and identify the appropriate forum for further development of a formal standard.

Program

The Model Context Protocol (MCP) empowers AI agents to autonomously discover, understand, and query data products in decentralized data architectures. Leveraging data contracts that define schema, semantics, and usage policies, the talk shows how AI agents can navigate complex data landscapes, automate access requests, and retrieve answers to real business questions — securely and at scale — across platforms like Snowflake and Databricks.

Program

In der Welt des Software-Engineerings wissen wir, wie wichtig explizite, klar dokumentierte und stabile Schnittstellen sind. Wir nutzen dazu OpenAPI oder AsyncAPI mit entsprechendem Tooling. In der Welt der Daten gab es bisher nichts Vergleichbares, aber unangekündigte Schemaänderungen sind leider omnipräsent. Data Contracts haben das Ziel, explizite, klar dokumentierte und stabile Schnittstellen für Daten einzuführen. Wie OpenAPI, aber eben für Daten. Ich stelle den Open-Source-Standard namens Data Contract Specification an einem Beispiel vor und zeige, wie man mit Open-Source-Tools die Daten gegen den Data Contract testen kann. Natürlich mit Live-Coding.

Event-Seite

How generative AI can help operationalize federated computational governance — the fourth pillar of Data Mesh. Governance rules are usually written in natural language and legal text (think GDPR), making them hard to enforce at scale. The talk shows how LLMs can validate metadata against these rules and surface PII, coding-guideline violations, and questionable access purposes — turning governance from a checklist into a continuous, automated practice.

Program

Hands-on workshop introducing data contracts through the Open Data Contract Standard and Data Contract CLI. Begins with foundational YAML concepts, then progresses through practical exercises where attendees create contracts for existing datasets, validate data, generate documentation, and build contract catalogs. The workshop then shifts to a contract-first approach through group exercises involving facilitators, data consumers, and producers, and concludes by exploring automation opportunities.

Event page

2024

Data contracts as a standardization approach for data interfaces. Data contracts bring producers and consumers together while allowing specification of data structure, quality requirements, sample data, and usage terms. Drawing parallels to software engineering practices and tools like OpenAPI, the talk introduces the Data Contract Specification (datacontract.com) and examines the practical implications of this emerging specification for data management.

Event page

Was ist ein Datenprodukt wirklich? Alle reden zwar über Datenprodukte. Aber wenn man genau hinschaut, gibt es keine einheitliche Definition. Ist ein Dashboard ein Datenprodukt? Ist ein Datensatz ein Datenprodukt? Gehört die Pipeline auch dazu? Ist ein Datenprodukt immer eine Tabelle? Oder doch eher ein Schema? Wir wollen versuchen, die eine Definition zu finden. Dabei betrachten wir Datenprodukt-Beispiele aus unterschiedlichen Perspektiven, bspw. Data Product Owner, Developer, Data Scientist, Business etc.

Event-Seite

In der Welt des Software-Engineering wissen wir, wie wichtig explizite, klar dokumentierte, und stabile Schnittstellen sind. Wir nutzen dazu OpenAPI oder AsyncAPI mit entsprechendem Tooling. In der Welt der Daten gab es bisher Vergleichbares nicht, aber unangekündigte Schema-Änderungen sind leider omnipräsent. Data Contracts haben das Ziel, explizite, klare dokumentierte und stabile Schnittstellen für Daten einzuführen. Wie OpenAPI, aber eben für Daten.

Ich stelle den Open-Source-Standard namens Data Contract Specification im Rahmen eines Beispiels vor, und zeige, wie man mit open source Tools die Daten gegen den Data Contract testen kann.

Event-Seite

In der Welt des Software-Engineerings wissen wir, wie wichtig explizite, klar dokumentierte und stabile Schnittstellen sind. Wir nutzen dazu OpenAPI oder AsyncAPI mit entsprechendem Tooling. In der Welt der Daten gab es bisher nichts Vergleichbares, aber unangekündigte Schemaänderungen sind leider omnipräsent. Data Contracts haben das Ziel, explizite, klar dokumentierte und stabile Schnittstellen für Daten einzuführen. Wie OpenAPI, aber eben für Daten. Ich stelle den Open-Source-Standard namens Data Contract Specification an einem Beispiel vor und zeige, wie man mit Open-Source-Tools die Daten gegen den Data Contract testen kann. Natürlich mit Live-Coding.

Event-Seite

Der Data Mesh Manager ist ein Produkt, das aus Data-Mesh-Beratungsprojekten bei INNOQ entstanden ist. Im Tech Lunch erzähle ich die Entstehungsgeschichte, zeige die verschiedenen Perspektiven der SaaS-Lösung — von Datenproduzenten über Konsumenten bis zur Governance — und gebe einen Ausblick, wie das Produkt Data-Mesh-Initiativen beschleunigt.

Event-Seite

Data Mesh Manager is the place where data producers and data consumers come together. Data consumers can find and discover data products in the data product catalog, evaluate the offered datasets by their enforced data contracts, and sign a usage agreement to gain access automatically. Data producers can perform data product controlling by inspecting the costs and usages of their data products and data product governance by tracking the adoption of the global policies. But in the end, Data Mesh Manager is simply the place where you can see your mesh grow.

Event page

Data Mesh ist ein soziotechnischer Ansatz für die Erstellung einer dezentralen Datenarchitektur. Zhamak Dehghani hat den Begriff Data Mesh und die Theorie dahinter mit ihren Blog-Beiträgen in 2019 bereits geprägt und dann mit ihrem Buch noch etwas ausführlicher beschrieben. Diese Theorie möchte ich kurz vorstellen, um für den Abend ein Begriffsfundament zu giessen. Seit 2019 ist jedoch viel passiert. Viele haben das Konzept gelesen und einige haben ihre Data Mesh Reise bereits begonnen. Ich möchte auf 2023 zurückblicken und den aktuellen Stand der Praxis beschreiben. Enden möchte ich mit einem Ausblick über die Top 5 Entwicklungen in Data Mesh, die dich total überraschen werden.

Event-Seite

2023

Data contracts as an analogue to OpenAPI specifications for data systems. While software engineers use Swagger and OpenAPI to document stable interfaces, the data world lacks comparable standards — leaving it vulnerable to unannounced breaking changes. Data contracts bring producers and consumers together, enabling specification of data structure, quality requirements, sample data, and semantic descriptions, plus usage terms consumers can depend upon.

Event page

Test-driven Development (TDD) ist in der operativen Welt bekannt und wird immer mehr praktiziert, in der analytischen Welt jedoch nicht.

In diesem Vortrag möchte Simon testgetriebene Entwicklung am Beispiel von dbt vorstellen, dem bekannten Werkzeug zur Datentransformation. Wir werden gemeinsam live einen echten, aber anonymisierten Datensatz mit SQL testgetrieben aufbereiten, analysieren und das Ergebnis dokumentieren.

Event-Seite

Föderierte Governance im Data Mesh – mit Fokus auf Automatisierung. Eine Gruppe aus Expert:innen und Team-Vertreter:innen entscheidet über die Spielregeln im Data Mesh, etwa zu Interoperabilität oder Security, mittels globaler Policies, die von der Plattform automatisiert durchgesetzt werden.

Event-Seite

Ein Überblick über Data Mesh und föderierte computational Governance – wie Organisationen dezentrale Verantwortung mit globalen Spielregeln verbinden können.

Event-Seite

Governance im Data Mesh ist föderal und soll möglichst automatisiert sein. Eine Gruppe mit Expert:innen und Repräsentanten der Teams entscheidet über die Spielregeln im Data Mesh, bspw. zu Interoperabilität oder Security, mittels globaler Policies, die von der Plattform automatisiert werden. Aber wie genau soll das funktionieren? Wir stellen ein Governance-Betriebsmodell vor, basierend auf dem Ansatz von Architecture Decision Records. Wir diskutieren Beispiele globaler Policies, und wie diese automatisiert werden können.

Event-Seite

Vor ein paar Monaten habe ich dbt kennengelernt. Wir haben uns auf Anhieb super verstanden, obwohl wir beide aus unterschiedlichen Welten kommen: ich aus der operativen Welt der Softwareentwicklung, und dbt aus der analytischen Welt der Daten. Der Hauptgrund war wohl, dass wir beide moderne Praktiken wie Versionskontrolle, Tests, CI/CD, Modularisierung, und schlanke, aber aktuelle Dokumentation sehr schätzen. Als wir uns in unserem ersten Projekt näher kamen, wusste ich, dbt wird immer einen festen Platz in meinem Herzen haben, gleich neben Spring Boot.

In dieser Session möchte ich euch das Werkzeug dbt für die Transformation von Daten vorstellen, das in der Datenanalyse ähnlich wichtig geworden ist wie Spring Boot in der Softwareentwicklung. Wir werden gemeinsam einen Datensatz mit SQL testgetrieben aufbereiten, analysieren und das Ergebnis dokumentieren. Obwohl wir Datentransformationen machen werden, werdet ihr euch als Entwickler:innen zu Hause fühlen.

Event-Seite

Code Katas sind eine gute Methode, um das Schreiben von sauberen Code zu lernen. In unserer zweistündigen Übung werden die Java by Comparison-Methode anwenden, um unseren fiktiven, absichtlich verschlimmerten Legacy-Code zu bereinigen. Unser Ziel ist es, eine der wichtigsten Fähigkeiten für einen professionellen Entwickler zu trainieren: problematischen Code auch in kleinen Zeitfenstern effektiv zu verbessern.

Event-Seite

Das Konzept Data Mesh basiert auf domainbasierten, dezentralisierten Daten Architekturen und ermöglicht Domain Teams autonom Datenanalysen durchzuführen. Data Mesh ist eine sozio-technische Datenarchitektur und wird in Form der vier Prinzipien präsentiert: „Domain Ownership", „Data as a Product", „Self-serve Data Platform", „Federated Governance".

In diesem Workshop zeigen wir, was diese vier Prinzipien von Data Mesh bedeuten. Du lernst die Herausforderungen der Einführung der Data Mesh kennen und bekommst Empfehlungen für ein schrittweises Vorgehen.

Event-Seite

2021

Wie das gesamte Team auf einem Bildschirm via Zoom zusammenarbeitet, mit rotierender „Typist"-Rolle alle 10 Minuten — und warum das nicht nur funktioniert, sondern viele Probleme verteilter Teams im Homeoffice gleich miterledigt: gemeinsames Lernen, Wissensverteilung, Codequalität, weniger Meetings.

Event-Seite

Mob-Programming ist eine Methode der agilen Software-Entwicklung, bei der ein ganzes Team zur gleichen Zeit und am gleichen (virtuellen) Ort an der gleichen Aufgabe arbeitet. Im Dojo erleben Software-Entwicklungs-Teams kollaboratives Mob-Programming durch vorbereitete Übungen — Vorkenntnisse nicht erforderlich.

Event-Seite

2022

Stellt euch vor, ihr seid Teil eines kleinen Teams von vier Softwareentwickler:innen, die von zu Hause aus arbeiten. Ihr trefft euch jeden Tag um 9 Uhr in eurem Zoom-Teamraum. Nach dem obligatorischen Kaffee und etwas Smalltalk wählt ihr die wichtigste User Story aus, diskutiert diese gemeinsam und beginnt dann mit der Umsetzung. Eine Person teilt den Bildschirm und fungiert als Typist, während die anderen über die Umsetzung diskutieren und dem Typist Anweisungen geben. Nach 10 Minuten übergibt der Typist seine aktuelle Arbeit an den nächsten Typist. Dies wird so lange wiederholt, bis die User Story fertig ist, woraufhin ihr die nächst-wichtige User Story auswählt. Um 17 Uhr haltet ihr inne, reflektiert kurz gemeinsam über den Tag und macht dann Feierabend.

Klingt verrückt? Ich habe das über drei Jahre lang gemacht. Und ich möchte nicht mehr anders arbeiten. In diesem Vortrag möchte ich euch unsere Geschichte erzählen. Ich möchte euch erzählen, wie wir zusammengearbeitet haben und was die Konsequenzen für uns waren. Kurz gesagt, ich möchte euch erzählen, wie wir trotz Homeoffice zusammengewachsen sind. Aber lasst mich an dieser Stelle ein Wort der Warnung aussprechen: Wenn ihr diese Art der Zusammenarbeit einmal ausprobiert habt, werdet ihr vielleicht nie wieder zurückkehren können!

Event-Seite

Das Konzept Data Mesh basiert auf domainbasierten, dezentralisierten Daten Architekturen und ermöglicht Domain Teams autonom Datenanalysen durchzuführen. Data Mesh ist eine sozio-technische Datenarchitektur und wird in Form der vier Prinzipien präsentiert: „Domain Ownership", „Data as a Product", „Self-serve Data Platform", „Federated Governance".

Im Workshop lernst du die Unterscheidung zwischen operativen und analytischen Daten kennen, verstehst die vier Kernprinzipien, entwirfst Datenprodukte mit dem Data Product Canvas und siehst, wie mehrere Datenprodukte im Mesh zusammenwirken — mit Fokus auf die soziotechnischen Aspekte der Einführung.

Event-Seite

Alle wollen gute Software schnell entwickeln. Alle möchten in ihren Rollen dazu beitragen und bringen aus ihren Sichtweisen gut gemeinte Maßnahmen mit ein: Agile Coaches führen SCRUM ein. Also auch JIRA. Entwickler:innen entwickeln flexible Lösungen. Architekt:innen definieren Referenz-Architekturen. Operations führt Kubernetes ein. Security Experts erstellen Checklisten. HR stellt Ninjas ein. Team-Leads wollen den Teams helfen und stellen Jour-Fixes ein. CIO fordert Vendor-Independence. Irgendjemand führt plötzlich MS Teams ein.

In der Theorie sind diese gut gemeinte Maßnahmen sehr hilfreich. In der Praxis zeigt sich jedoch oft ein anderes Bild: Alle sind irgendwie unzufrieden. Software-Projekte dauern immer länger.

Ihr begleitet in diesem kurzweiligen Vortrag ein initial engagiertes Team, das immer mehr gut gemeinte Maßnahmen aufgedrückt bekommt. Lernt, wie ihr solche Maßnahmen erkennen könnt und wie ihr erfolgreich dagegensteuert.

Event-Seite

2019

Namen sind zentral für uns Entwickler. Wir vergeben Namen im Code, nutzen Namen im Gespräch mit der Fachabteilung und verwalten die Namen unserer Nutzer. Der Talk adressiert drei zentrale Herausforderungen: der Umgang mit Namen im Code, die ein gemeinsames Vokabular zwischen Entwicklern und Fachabteilung brauchen, und das Etablieren sinnvoller Namenskonventionen. Vorgestellt werden passende Form-Fields, Ubiquitous Language und semantisch reiche, ausgeschriebene Bezeichnungen.

Event-Seite

In 2015, Google open-sourced the core of their internal container clustering system as Kubernetes. Teams that previously relied on IaaS and PaaS quickly adopted Kubernetes instead, and it has become the de facto standard for deploying cloud-native applications. The talk gives an overview of where Kubernetes stands today and shares experiences from running it in an e-commerce and an IoT application — with an outlook on a future where managed databases, serverless functions, and even build pipelines all live within the cluster: one Kubernetes to rule them all.

Event-Seite

A meetup-tour talk telling the story behind „Java by Comparison": six years of teaching Java at the University of Bamberg, the typical mistakes students made, the before/after didactic concept that became the book, and three concrete examples on how to clean up everyday Java code. Includes an interactive „Java by Comparison Jeopardy" segment.

Stops: 2. April 2019 — Softwerkskammer Ruhrgebiet · 3. April 2019 — Softwerkskammer Düsseldorf · 4. Juni 2019 — Softwerkskammer Leipzig · 8. Juli 2019 — WIAI PraxisReport, Bamberg · 9. Oktober 2019 — Lightweight JUG München · 10. Oktober 2019 — Softwerkskammer Nürnberg · 23. Oktober 2019 — Softwerkskammer Köln · 29. Oktober 2019 — JUG Mainz

2018

Auf Basis von über sechs Jahren Java-Lehre an der Uni Bamberg und dem Korrigieren unzähliger Java-Aufgaben haben wir ein Buch geschrieben, das die typischen Fehler in einer innovativen Vorher/Nachher-Darstellung aufzeigt und erklärt: Java by Comparison. Der Talk stellt die Buchentstehung vor, diskutiert konkrete Beispiele und schließt mit einem interaktiven „Java by Comparison Jeopardy" mit dem Publikum.

Event-Seite

How Kotlin's language features — sealed classes, data classes, type-safe builders, and extension functions — make Domain-driven Design tactical patterns more expressive and concise than in Java. Live examples drawn from real projects.

Event page