Navigation überspringen
Überspringen
1803
Gegründet
Kreuztal-Krombach
Sitz
bis zu 20%
höhere Modellqualität
30%
weniger Wartungsaufwand
~1 Jahr
bis zur produktiven Plattform

Zusammenfassung

Die Krombacher Gruppe: über 1500 Mitarbeitende, Jahrzehnte Brautradition, einer der bekanntesten Getränkehersteller Deutschlands. KI ist für Krombacher kein Experiment, sondern ein Eckstein der Unternehmensstrategie. Das Data-Science-Team betreibt unter anderem produktive ML-Modelle für Demand Forecasting, Abwasser-Vorhersage und das Krombacher Loyalty-Programm. Modelle, die täglich Entscheidungen in der Abfüllplanung, der Produktionssteuerung und im Marketing beeinflussen.

Doch die technische Grundlage hielt mit dem Anspruch nicht mehr Schritt.

Ausgangssituation

Funktioniert. Aber wie lange noch?

Krombachers Data-Science-Team hatte sich über die Jahre einen eigenen Stack auf AWS aufgebaut: SageMaker fürs Model Training, Lambda und API Gateway fürs Model Serving, Dagshub als gehostetes MLflow, DVC für Datenversionierung, Airflow für Scheduling. Jedes Tool für sich funktionierte, aber ein einzelnes Modell-Deployment erforderte manuelle Anpassungen in vier verschiedenen Services. Der Wartungsaufwand wuchs mit jedem neuen Projekt. Model Drift und Data Drift konnten nicht systematisch erkannt werden: Es gab schlicht kein zentrales Monitoring, das Abweichungen in Datenqualität oder Modellperformance automatisch erkennt.

Datenprodukte entstanden mehrfach an verschiedenen Stellen. Es gab keine Single Source of Truth, keine einheitlichen Qualitätsprozesse, kein zentrales Monitoring. Die Sorge, dass produktive Modelle irgendwann unbemerkt falsche Ergebnisse liefern, war real; auch wenn es bis dahin noch nicht passiert war.

Die bestehende Lösung funktionierte – noch. Doch statt auf den ersten Ausfall zu warten, entschied sich Krombacher bewusst für den Wechsel, solange der Handlungsspielraum noch da war.

Herausforderung

Databricks oder Snowflake?

Databricks oder Snowflake? Diese Entscheidung hatte Krombacher bereits mit verschiedenen Beratern beleuchtet. Gemeinsam mit ruhrdot führte das Team anschließend eine strukturierte Plattformbewertung durch, basierend auf konkreten Anforderungen statt auf Versprechen aus dem Marketing.

Databricks überzeugte im Bereich Machine Learning und GenAI am meisten. Die Plattform fühlt sich an wie die Werkzeuge, die Data Scientists ohnehin nutzen: Notebooks, Python, MLflow. Kein Framework-Wechsel, kein Umlernen, keine Medienbrüche, sondern eine natürliche Erweiterung der bestehenden Arbeitsweise. Auch Snowflake hinterließ einen guten Eindruck – für den ML/AI-Fokus von Krombacher brachte Databricks jedoch entscheidende Funktionen mit, die das Team im Custom Stack selbst hätte bauen müssen: automatisches Monitoring für Modell- und Datenqualität, durchgängige Lineage von der Datenquelle bis zum Modell-Output, und Model Serving ohne eigene Infrastruktur.

Krombachers IT ist stark SAP-getrieben – genau hier spielt Databricks seine Stärken aus. Über die Integration mit SAP Datasphere (per HANA Native oder zukünftig Zero-Copy Delta Sharing) gelangen Daten kontrolliert in den Unity Catalog und stehen für Analytics und ML zur Verfügung. Prognosen und Modellergebnisse werden anschließend zurück in SAP bereitgestellt, z. B. für Reports in der SAP Analytics Cloud. Die Fachbereiche bleiben in ihrer vertrauten SAP-Arbeitsweise, profitieren aber von zusätzlichen ML-Insights. Gleichzeitig bindet Databricks auch Non-SAP-Quellen wie Shopify, IoT, PayPal oder Klarna effizient an; dort, wo SAP-Produkte heute oft weniger flexibel sind.

Krombacher entschied sich für Databricks als Developer-First-Plattform: geringe Wartungsaufwände, aber genügend Flexibilität und Freiräume für ein team, das technische Tiefe schätzt.

Die Bedenken: Kosten, Vendor Lock-In und fehlende Flexibilität wurden offen adressiert. Am Ende überwog die Überzeugung: Die Plattform lässt genügend Gestaltungsspielraum.

Kein Code ohne Strategie

Bevor die Migration startete, entwickelte Krombacher gemeinsam mit ruhrdot eine Data Strategy, die deutlich über einen reinen Plattformwechsel hinausgeht. Im Fokus stand die Architekturfrage: Wie muss eine Daten- und KI-Plattform aufgebaut sein, damit sie heutige ML-Use-Cases zuverlässig trägt und gleichzeitig die Grundlage für GenAI- und Agentic-AI-Szenarien schafft?

Die Entscheidung fiel auf Databricks als Lakehouse-Plattform: als einheitliche Grundlage für Data Engineering, Data Science und AI. Der Ansatz war bewusst pragmatisch statt overengineered: Unity Catalog sauber nach bewährten Best Practices strukturiert, ETL-Pipelines zielgerichtet designt und Compute passgenau dimensioniert: von SQL Warehouses bis zu Spark-Clustern. Leitprinzip: so wenig Komplexität wie möglich, so viel Struktur wie nötig. Grundlage dafür waren Erfahrungswerte aus zahlreichen Databricks-Projekten, die ruhrdot über Jahre aufgebaut und verfeinert hat. Mindestens genauso wichtig wie die Technik: Enablement, Sparring und Change Management. ruhrdot begleitete das Krombacher-Team dabei als Partner auf Augenhöhe.

„Wir hatten zu jeder Zeit das Gefühl, bei der ruhrdot. sehr gut aufgehoben zu sein und zu jeder Zeit eine höchst vertrauensvolle Zusammenarbeit auf Augenhöhe zu genießen!”
Fabian Wörenkämper, Senior Full Stack Data Scientist, Krombacher
Mehrwerte

Zielarchitektur: SAP + Databricks im Lakehouse

In rund zwölf Monaten entstand bei Krombacher eine einheitliche Data-&-AI-Workbench auf Databricks. Daten aus SAP Datasphere, SAP BW, Shopify, IoT-Sensoren der Betriebsdatenerfassung sowie PayPal, Klarna und weiteren Quellen laufen heute in einer zentralen Lakehouse-Architektur zusammen. Rohdaten werden in Databricks verarbeitet, Prognosen und Scores fließen zurück in die SAP-Welt. So können Fachabteilungen ML-Ergebnisse nutzen, ohne ihre gewohnte SAP-Umgebung zu verlassen.

Die Plattform unterstützt den gesamten ML-Lebenszyklus: von Ingestion und Feature Engineering über Training und Deployment bis zu Batch- und Realtime-Inferenz, Monitoring und automatisiertem Retraining. Mit Lakebase als Online Feature Store stehen Features in Echtzeit für Serving-Endpoints bereit: etwa für das Loyalty-Programm. Unity Catalog bildet dabei die zentrale Governance-Schicht für Berechtigungen, Lineage und saubere Trennung von Verantwortlichkeiten.

Auch der Betrieb ist konsequent standardisiert: Die Infrastruktur wird per Infrastructure as Code ausgerollt: versioniert, reproduzierbar und als Template wiederverwendbar. Neue ML-Projekte starten dadurch nicht mehr mit manueller Basis-Konfiguration, sondern mit einer vorkonfigurierten Umgebung inklusive Compute, Storage, Berechtigungen und CI/CD: in kurzer Zeit statt in mehreren Arbeitstagen.

„Durch die Versionierung der Infrastruktur, habe ich insgesamt deutlich weniger Sorgen und Bauchschmerzen als früher. Robustheit kann hier tatsächlich gefühlt werden.”
Fabian Wörenkämper, Senior Full Stack Data Scientist, Krombacher

Klassisches ML ist erst der Anfang. Durch den Lakehouse-Ansatz, Unity Catalog als Governance-Layer und die nativen Features der Databricks Data Intelligence Platform ist die Architektur von Beginn an auf GenAI vorbereitet: bis hin zu Agentic AI, also Agentensystemen, die autonom auf Unternehmensdaten arbeiten und Entscheidungen vorbereiten, z. B. als Unterstützung für den Außendienst bei der proaktiven Besuchsvorbereitung.

Von der Abfüllung bis zur Kampagne: KI im Einsatz

  • Demand Forecasting
    Wie viel Krombacher wird in den kommenden Tagen nachgefragt? Diese Frage wurde lange auf Basis von Erfahrungswerten beantwortet. Heute liefert ein ML-gestützter Forecasting-Service präzise Absatzprognosen, die direkt in die Abfüllplanung einfließen: zuverlässigere Planung, optimierte Abfüllprozesse, spürbare Entlastung der Produktionssteuerung.
  • Abwasserprognose
    ML-Modelle prognostizieren auf Basis von IoT-Sensorendaten aus der Betriebsdatenerfassung die anfallenden Abwassermengen. So kann Krombacher die kommunalen Klärwerke frühzeitig und zuverlässig über zu erwartende Einleitungen informieren - vorausschauend statt reaktiv.
  • Loyalty-Programm
    Customer Segmentation und Customer Lifetime Value Modelle liefern die Grundlage für datengetriebene Kampagnen: gezielt statt Gießkannenprinzip. Die Ergebnisse werden über Model Serving als API bereitgestellt, sodass andere Fachbereiche direkt darauf zugreifen und in ihre Prozesse integrieren können.

„Statt theoretischer Konzepte haben wir eine pragmatische, maßgeschneiderte Lösung bekommen, die unsere Data-Science-Projekte robuster macht und uns optimal für zukünftige AI- und GenAI-Use-Cases aufstellt.”

Dr. Max Schüssler
Team Lead Data Science, Krombacher

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

Alexander Rabe
This is some text inside of a div block.
This is some text inside of a div block.

Heading

Alexander Rabe
This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.
Fazit

Vorher-Nachher

„Die Zusammenarbeit hat uns von einem wartungsintensiven Custom-Stack zu einer robusten, skalierbaren und praxisnah umgesetzten Data-Science-Workbench geführt, die unser Team nachhaltig produktiver macht.”
Dr. Max Schüssler, Team Lead Data Science, Krombacher

Road to 2030

Auf dem Fundament der Plattform baut Krombacher die nächsten Schritte bereits auf: Die bidirektionale Datenanbindung zwischen SAP Datasphere und Databricks wird weiter ausgebaut, ebenso die Integration zusätzlicher OT-Datenquellen. Parallel startet das Team neue GenAI-Vorhaben in Databricks ; inklusive Anwendungen, die den Außendienst im Alltag unterstützen. Unter dem Leitbild „Road to 2030” läuft zusätzlich eine unternehmensweite AI-Initiative: Abteilungsleiter reichen konkrete Use-Case-Vorschläge ein, die anschließend priorisiert und umgesetzt werden.

Antworten auf Ihre Fragen

Ein Databricks Lakehouse vereint Data Lake und Data Warehouse auf einer Plattform. Statt Daten zwischen getrennten Systemen zu kopieren, liegen alle Daten — strukturiert, semi-strukturiert und unstrukturiert — auf günstigem Object Storage (z. B. S3). Delta Lake als Open Table Format liefert dabei ACID-Transaktionen, Schema-Enforcement und performante Queries direkt auf dem Lake. Data Engineering, Analytics und Machine Learning laufen so auf derselben Datenbasis.

SAP Datasphere und Databricks lassen sich über Delta Sharing bidirektional verbinden. Daten aus SAP BW oder S/4HANA fließen kontrolliert in den Unity Catalog und stehen dort für Analytics und ML zur Verfügung. Ergebnisse — etwa Prognosen oder Scores — werden über denselben Weg zurück in die SAP-Welt bereitgestellt, z. B. für Reports in der SAP Analytics Cloud. Die Fachbereiche arbeiten weiter in SAP, profitieren aber von ML-Insights aus Databricks.

Unity Catalog ist die zentrale Governance-Schicht der Databricks-Plattform. Er verwaltet Berechtigungen, Data Lineage und Datenqualität über alle Datenprodukte hinweg — von Tabellen und Features bis zu ML-Modellen und Serving-Endpoints. Durch feingranulare Zugriffssteuerung und lückenlose Nachverfolgbarkeit erfüllt Unity Catalog auch regulatorische Anforderungen.

MLOps beschreibt die Praxis, Machine-Learning-Modelle zuverlässig und reproduzierbar in Produktion zu bringen und dort zu betreiben. Dazu gehören automatisiertes Training, versionierte Pipelines, Monitoring von Model Drift und Data Drift sowie standardisierte Deployment-Prozesse. Ohne MLOps bleiben ML-Modelle oft Prototypen — mit MLOps werden sie zu stabilen, wartbaren Produktionssystemen.

Die Medallion-Architektur gliedert Daten in drei Schichten: Bronze (Rohdaten, 1:1 aus den Quellsystemen), Silver (bereinigt, dedupliziert, angereichert) und Gold (aggregiert, business-ready für Analytics und ML). Dieses Schichtenmodell sorgt für Nachvollziehbarkeit, Datenqualität und klare Verantwortlichkeiten — und ist der De-facto-Standard in Lakehouse-Projekten.

Delta Sharing ist ein offenes Protokoll für den sicheren Austausch von Daten zwischen Plattformen — ohne die Daten zu kopieren. Empfänger greifen direkt auf die freigegebenen Datasets zu, in Echtzeit und mit der jeweils aktuellen Version. Das funktioniert plattformübergreifend: zwischen Databricks-Workspaces, aber auch mit SAP Datasphere, Power BI, Pandas oder beliebigen anderen Clients, die das Protokoll unterstützen.

Bereit, euren Data-Science-Output zu professionalisieren?

Habt ihr genug von individuellem Tool-Wildwuchs und hohem Wartungsaufwand? Lasst uns gemeinsam eure Roadmap zur robusten Data Science Workbench entwickeln. Jetzt unverbindliches Expertengespräch mit ruhrdot. vereinbaren

Success-Stories

Verwandte Services

Wir verstehen uns als einen Full-Service-Provider rund um die ERP-Software xentral und Odoo. Diese Leistungen können Sie von uns als offizieller Xentral und Odoo Silver-Partner erwarten:

The Quality Group

Künstliche Intelligenz in Lager & Verkauf

2020
gegründet
Food
Brands
Elmshorn
Sitz

Logstikkonzern

Logistikmarktführer transformiert Dateninfrastruktur

> 5
Quellsysteme
100%
Cloud-native Solution
5
unabhängigere Teams

LSQ24

LSQ24 skaliert mit ruhrdot. und Xentral den TikTok-Shop

2018
Gegründet
> 5 Mio. €
Umsatz
Wickede
Sitz
Alle Success-Stories