Navigation überspringen
Überspringen
Modern Data Stack

Die wichtigste Entscheidung im Data Stack bewusst treffen

Die Entscheidungen, die Unternehmen in den ersten Wochen treffen, wenn sie eine Datenplattform bauen, bestimmen über Jahre hinweg Kosten, Flexibilität und die Geschwindigkeit von Innovationen. Cloud-Provider, Deployment-Modell, Storage-Format, Governance-Architektur; all diese Entscheidungen schaffen Pfadabhängigkeiten, die man nur mit großem Aufwand korrigieren kann, wenn man sie einmal getroffen hat.

Das Problem: Die Mehrheit der Unternehmen trifft diese Entscheidungen unbewusst; sie übernehmen Standardwerte, folgen den Empfehlungen von Anbietern oder kopieren Referenzarchitekturen, die für ein anderes Geschäftsmodell erstellt wurden. 

Unsere Vorgehensweise beim Aufbau von Data & AI Platforms ist anders: Wir beginnen mit einer soliden Architekturentscheidung, bevor wir mit dem Coden starten. Egal, ob ihr eine Data Platform von Grund auf neu aufbaut oder bestehende Systeme in die Cloud migrieren; wir liefern das technische Fundament, das euren Anforderungen entspricht.

Governance und FinOps sind nicht als nachträgliche Ergänzungen gedacht, sondern sind von Anfang an fest integriert: Mit Unity Catalog, Auto-Scaling Policies und Security-as-Code bleibt eure Plattform automatisch sauber, sicher und kosteneffizient.

Web developer, tablet and coding in office for software, system or website update advice.

"Die Entscheidung für eine Plattform ist die kostspieligste im Data Stack und die, die man am seltensten bewusst trifft."

Alexander Rabe
Co-Founder & Head of Data & AI

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

Alexander Rabe
This is some text inside of a div block.
This is some text inside of a div block.

Heading

Alexander Rabe
This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.

Heading

This is some text inside of a div block.
This is some text inside of a div block.
Modern Data Stack

Das teuerste Fundament, das niemand bewusst legt

Jedes Datenvorhaben beginnt mit drei Grundsatzfragen: Build vs. Buy, Cloud-Native vs. Hybrid, Open Source vs. Vendor. Diese Fragen klingen abstrakt, aber ihre Antworten definieren, was ihr in zwei Jahren mit eurer Plattform tun könnt und was nicht. Wer sich für einen vollständig verwalteten SaaS-Stack entscheidet, gewinnt Geschwindigkeit, gibt aber Kontrolle über Datenformate und Portabilität auf. Wer alles selbst baut, behält maximale Flexibilität, muss aber ein Team finanzieren, das den operativen Betrieb dauerhaft stemmen kann.

Die meisten Projekte scheitern nicht an der falschen Technologie, sondern an fehlender Bewertung der Trade-offs. Default-Entscheidungen, die niemand hinterfragt, werden zur Architektur: Der Cloud-Provider, den die IT bereits nutzt, wird zum Standard; unabhängig davon, ob er für analytische Workloads die richtige Wahl ist. Cluster-Größen, die beim initialen Setup gesetzt wurden, laufen jahrelang unverändert, weil niemand die TCO (Total Cost of Ownership) gegen die tatsächliche Nutzung gerechnet hat.

Wir bewerten jede Architekturentscheidung gegen eure realen Constraints: Datenvolumen, Latenzanforderungen, Compliance-Anforderungen, Teamgröße und Budget. Nicht auf Basis von Vendor-Slides, sondern auf Basis von TCO-Berechnungen mit euren tatsächlichen Workloads. Ob Databricks, Snowflake, Microsoft Fabric oder ein hybrider Stack; die Empfehlung richtet sich nach eurem Geschäftsmodell, nicht nach unserer Partnerstruktur.

Greenfield vs. Core Modernization

Zwei Wege, eine Architektur

Nicht jede Plattform startet bei null, und nicht jedes Legacy-System gehört abgeschaltet. Die Unterscheidung zwischen Greenfield und Core Modernization ist die wichtigste Weichenstellung, weil sie den gesamten Projektansatz, die Teamstruktur und die Migrationsstrategie definiert. Beide Wege führen zu einer modernen Lakehouse-Architektur; aber der Pfad dorthin unterscheidet sich fundamental. 

Ein Greenfield-Ansatz ermöglicht es, von Beginn an mit einer Unified Architecture zu arbeiten, ohne Rücksicht auf bestehende Datensilos, veraltete ETL-Logiken oder historisch gewachsene Zugriffskonzepte. Modernization dagegen muss die operative Exzellenz des Bestandsgeschäfts sichern, während parallel die neue Plattform aufgebaut wird; ein Dual-Running-Szenario, bei dem Alt und Neu so lange parallel laufen, bis die neue Plattform validiert übernehmen kann. 

Beide Ansätze zielen auf dasselbe Ergebnis: eine Data-Lakehouse-Architektur, die Analytics, AI und Streaming auf einer einzigen Datenbasis vereint. Aber die Reihenfolge der Implementierungsschritte, die Migrationsrisiken und die Teamanforderungen unterscheiden sich grundlegend. Wer den falschen Ansatz wählt, riskiert entweder eine Plattform, die keine historischen Daten integrieren kann, oder ein Migrationsprojekt, das nie abgeschlossen wird, weil der Parallelbetrieb zu komplex ist.

Greenfield Data Platform

Wenn ihr auf der grünen Wiese startet, bauen wir eine Unified Lakehouse Architecture, die Analytics, AI und Streaming auf einer einzigen Datenbasis vereint; skalierbar ab Tag 1, ohne Datensilos und technische Schulden.

  • Unified Lakehouse Architecture: Eine Datenbasis für Analytics, AI und Streaming. Kein paralleler Data Lake neben dem Data Warehouse, sondern ein integriertes Lakehouse mit offenen Tabellenformaten.
  • Landing Zone & Plattform-Setup: Cloud-Account-Struktur, Netzwerk-Topologie und Identity & Access Management. Die Grundlage, auf der alles Weitere aufsetzt.
  • Governance-by-Design: Unity Catalog, Zugriffskonzepte und Data Lineage von Anfang an eingebaut; nicht als nachträgliches Governance-Projekt, sondern als integraler Bestandteil der Plattformarchitektur.
  • Data Product Architecture: Klare Domain-Ownership, definierte Schnittstellen und ein Semantic Layer, der Business-User befähigt, ohne die Systemstabilität zu gefährden.

Enterprise Core Modernization

Wenn ihr bestehende Kernsysteme modernisieren müsst, bauen wir die Brücke zwischen On-Premise-Monolithen und Cloud; ohne die operative Exzellenz eures Bestandsgeschäfts zu gefährden.

  • SAP-Bridge & Legacy-Migration: Integration von SAP-Systemen (ECC, S/4HANA, BW, Datasphere), Oracle, Teradata und anderen Bestandssystemen in eine moderne Lakehouse-Architektur. Keine Disruption des Tagesgeschäfts, sondern schrittweise Migration mit definierten Cutover-Punkten.
  • Dual-Running-Strategie: Alt und Neu laufen parallel, bis die neue Plattform validiert ist. Wir definieren die Abnahmekriterien, die den sicheren Übergang ermöglichen.
  • Data Lineage über Systemgrenzen: Durchgängige Nachverfolgbarkeit von der Quelle bis zum Report, auch wenn Daten durch mehrere Systeme fliessen.
  • Migration Accelerator: Bewährte Playbooks, automatisierte Schema-Mappings und vorgefertigte Pipeline-Templates, die Migrationszyklen um Wochen verkürzen und manuelle Fehler eliminieren.
Cloud Migration

Betriebskontinuität statt Big-Bang

Die Migration bestehender Data Warehouses und Analytics-Infrastruktur in die Cloud ist kein Technologie-Projekt, es ist ein Betriebskontinuitätsprojekt.

Wer Migration als reines Lift-and-Shift behandelt, verschiebt seine On-Premise-Probleme in die Cloud und bezahlt dafür monatlich statt einmalig. Wer Migration dagegen als Architektur-Refactoring versteht, nutzt den Umzug für eine grundlegend bessere Plattform.

Unsere Migrationen starten nicht mit dem Technologie-Ziel, sondern mit einer ehrlichen Bestandsaufnahme:

  • Welche Workloads liefern Business-Wert und verdienen eine saubere Migration?
  • Welche sind technische Schulden, die im Zuge der Migration eliminiert werden sollten?
  • Welche Abhängigkeiten zwischen Systemen müssen erhalten bleiben, und welche können aufgelöst werden?

Diese Triage ist entscheidend, denn die gefährlichste Annahme in Migrationsprojekten ist die, dass alles migriert werden muss. In der Praxis liefern oft 30% der bestehenden Pipelines 90% des Business-Werts, der Rest ist historisch gewachsener Ballast, der beim Umzug nicht mitgenommen, sondern abgelöst werden sollte.

Ihr plant eine Databricks-Migration? Unsere Databricks Migration vertieft den Prozess plattformspezifisch:

Discovery → Parallelbetrieb → Cutover → Decommission.

Security & Compliance

Architekturprinzip statt Nachgedanke

In den meisten Datenarchitekturen sind Security und Compliance nachträglich als Kontrollschichten hinzugefügt, Policies, die in separaten Dokumenten existieren und manuell durchgesetzt werden müssen. Dieses Modell ist nicht skalierbar, denn mit jeder neuen Datenquelle, jedem neuen Team und jedem neuen Use-Case wächst der manuelle Aufwand, ohne dass die Sicherheit tatsächlich verbessert wird. Das Resultat: Governance-Dokumente, die während des Audits präsentiert werden, jedoch im Alltag keine Funktion haben. 

Security und Compliance werden als Architekturprinzip direkt in die Plattform integriert. In Code, nicht in Tabellen, wird definiert, was Zugriffskonzepte sind. Verschlüsselungsstandards sind durch Plattform-Policies vorgeschrieben, nicht durch Handbücher. Compliance-Anforderungen wie DSGVO, DORA oder branchenspezifische Regulatorik sollten nicht durch nachträgliche Audits erfüllt werden; stattdessen sind automatisierte Guardrails erforderlich, die Verstöße verhindern, bevor sie entstehen.

Creative, business people and team discussion with documents in meeting for brand or target audience.
FinOps

Cloud-Kosten sind ein Architektur-Problem

Cloud-Kosten werden oft als Finance-Thema angesehen: Dashboards, welche die Ereignisse des letzten Monats darstellen. Berichte, die die Gründe für die Budgetüberschreitung darlegen. Die Problematik: Mit dem Erhalt der Rechnung ist das Geld schon ausgegeben. Alles, was Kostenkontrolle erst mit dem Reporting angeht, ist keine Kontrolle, es ist lediglich Dokumentation. 

Wir sehen Cloud-Kosten als ein Engineering-Problem, weil sie durch architektonische Entscheidungen entstehen: die Cluster-Größe, die man beim Setup gewählt hat. Die Spot-Instanz-Strategie, für die es keine Konfiguration gibt. Die Auto-Termination ist auf dem Default-Wert von 120 Minuten eingestellt, obwohl die meisten Jobs nach zehn Minuten bereits abgeschlossen sind. Selten werden diese Entscheidungen dokumentiert und noch seltener revidiert, selbst wenn die Anforderungen sich längst verändert haben.

Unser Ansatz in der FinOps konzentriert sich auf das Niveau, wo die Kosten tatsächlich entstehen: auf der Infrastrukturebene. Cluster-Policies, die es Teams untersagen, überdimensionierte Instanzen zu starten. Auto-Scaling-Konfigurationen, die die tatsächliche Last berücksichtigen, anstatt auf Peak-Kapazität zu provisionieren. Strategien für Spot-Instanzen bei fehlertoleranten Workloads, die 60-90% günstiger sind als On-Demand-Compute. Und Workload-Management, das Jobs basierend auf Priorität und Kosten-Effizienz plant, nicht nach dem Prinzip "wer zuerst kommt".Die Ergebnisse sind messbar: typischerweise 30-50% Kostensenkung gegenüber unkontrollierten Cloud-Umgebungen, nicht durch Verzicht auf Features, sondern durch intelligente Guardrails, die Verschwendung verhindern, ohne die Engineering-Teams auszubremsen.

Lösung finden

Eure Datenplattform läuft auf Databricks? Unsere Databricks FinOps vertiefen Kostenoptimierung plattformspezifisch:

System-Tables-basiertes Monitoring, Cluster-Policies als technische Guardrails und DBU-Analyse pro Team und Workload.

Data Platform Audit

Entscheidungssicherheit vor dem Umbau

Bevor ihr in eine neue Plattform investiert, solltet ihr euch ehrlich fragen: Was habt ihr eigentlich und was davon funktioniert? Viele Unternehmen beginnen mit Plattformprojekten, die auf Annahmen statt auf Fakten basieren: Der aktuelle Tech-Stack wird einfach als "veraltet" angesehen, ohne dass eine Untersuchung stattfindet, welche Komponenten wirklich an ihre Grenzen kommen. Oder anders gesagt: Es wird das Bestehende modernisiert, was funktioniert, während die tatsächlichen Engpässe unentdeckt bleiben. 

Die Data Platform Audit bietet euch die Entscheidungsgrundlage, die ihr braucht, bevor das große Budget fließt. Wir prüfen euren analytischen Tech-Stack gegen die Realität eurer Anforderungen, nicht gegen ein Ideal. Wir finden heraus, wo Optimierungen nötig sind, welche Teile ersetzt werden müssen und welche mit gezielten Anpassungen noch Jahre produktiv arbeiten können. Wir betrachten nicht nur die Technologie selbst, sondern auch das Betriebsmodell, die Teamstruktur und die Governance-Prozesse, denn eine Plattform ist nur so stabil wie die Organisation, die sie betreibt.

Bring dein Business aufs nächste Level

Was ist jetzt wichtig?

Actionplan

Bewertung der Tech-Stack

Eine systematische Analyse eurer aktuellen Plattform: Architektur, Performance, Skalierbarkeit, Betriebskosten und technische Schulden.

Basierend auf realen Metriken und nicht auf den Versprechen der Anbieter.

Anforderungs-abgleich

Vergleich der Fähigkeiten des aktuellen Stacks mit den tatsächlichen Business-Anforderungen der kommenden zwei bis drei Jahre.

Wo sind die Lücken?
An welcher Stelle ist der Stack überdimensioniert?

TCO-Analyse

Welche Gesamtkosten verursacht euer aktueller Stack wirklich, inklusive Betrieb, Wartung und Opportunitätskosten?

Und wie hoch wären die Kosten für eine Modernisierung oder Migration im Vergleich zum Status quo?

Priorisierter Aktionsplan

Kein 80-seitiger Papierkrieg ohne Schlussfolgerung, sondern ein übersichtlicher Plan: Was hat Vorrang, was kann parallel laufen, was kann warten.

Durch festgelegte Entscheidungspunkte und messbare Kriterien.

Jetzt Actionplan formulieren

Ihr steht vor einer Plattformentscheidung; oder ihr habt eine getroffen und seid nicht sicher, ob sie die richtige war. In beiden Fällen liefern wir die Klarheit, die ihr braucht: von der strategischen Vorarbeit über die Plattformarchitektur bis zur produktionsreifen Implementierung.

Ihr habt euch bereits für Databricks entschieden? Dann ist unser Databricks Architecture Review der nächste Schritt; Workspace-Topologie, Unity Catalog Design und Kostenarchitektur prüfen, bevor das große Budget fließt.

Foto: Alex