Cloud Data Warehouse
Wir stellen Ihr Data Warehouse zukunftssicher auf
Cloud Data Warehouse
Lizenzen und Hardware für Ihr DWH sind teuer. Dennoch ist die Batch-Nacht zu kurz. Die Wartezeit auf Antworten ist zu lang? Cloud Lösungen wie Snowflake oder Azure Synapse ermöglichen einen flexiblen Einstieg in das Cloud Native Data Warehousing des 21. Jahrhunderts, Skalierbarkeit und flexible CI/CD-Prozesse.
Unsere Leistungen
- Wir unterstützen von der Strategie- und Architekturentscheidung für Ihre Datenplattform bis zur Umsetzung von Datenversorgung, Berichten und Betrieb.
- Unser Data Warehouse Support läuft ab – und jetzt? Wir evaluieren Migrationsstrategien: technisch und wirtschaftlich.
- Sie möchten für innovative Datenprodukte auch semi-strukturierte Daten integrieren? Wir zeigen Ihnen wie.
- Power BI ebnet den Weg zu interaktivem Self Service-BI und schließt gut an die Cloud-Strategie an. Wir zeigen wie.
- Power BI schließt die Lücke zwischen Fachbereichen, Management und Data Science Teams. Wir identifizieren Potentiale und Empfehlungen und machen diese in interaktiven Dashboards greifbar.
Als Snowflake Partner wissen wir die Vorteile der Data Cloud zu Ihrem Vorteil zu nutzen. Als unabhängige Beratung besprechen wir gerne die Vor- und Nachteile verschiedener Plattformen mit Ihnen, geben vertrauenswürdige Empfehlungen und unterstützen Sie auf der strategischen und der operativen Ebene, unabhängig der von Ihnen ausgewählten Zielplattform.
Eine wichtige Lessons Learned aus unseren Kundenprojekten: Die PowerBI-Plattform nutzen zwar viele unserer Kunden, sie reizen ihre Möglichkeiten aber oft nicht aus. Mit dem “kleinem Besteck” lassen sich innovative Projekte umsetzen, die teuren Speziallösungen in Nichts nachstehen:
Power BI kann
- einen günstigen Einstieg in das Process Mining bieten.
- als Nutzeroberfläche für eine Anomalie-Erkennung dienen und so helfen, Geschäftsprozesse zu überwachen.
- Explainable AI an Endnutzer:innen herantragen.
Ansprechperson
Tobias Otte
Tel: +49 251 77777187
Zielbild: Wo wollen wir hin?
Für Ihre Zielarchitektur sind neben Ihrer individuellen Anforderungen eine Reihe von Strategie-Faktoren zu berücksichtigen, die gerade für alle Unternehmen wirksam werden.
-
Compute und Storage trennen
Der "Data Science-Stack" des 21. Jahrhunderts wird modularer, flexibler sein - eine Single-Sourcing-Strategie bringt zu hohe Kosten und strategische Stolpersteine mit sich. Kernpunkt sind die Aufspaltung von Storage-Ressourcen und Compute-Ressourcen - zusätzlich zu schon etablierten Freiheitsgraden mit Präsentations- und Datentransformationswerkzeugen.
-
Zielgruppen gerecht werden
Es gilt der wachsenden Anzahl von Zielgruppen mit verschiedenen Anforderungen gerecht zu werden, von Führungskräften mit Anspruch auf datengetriebene Entscheidungen bis hin zu Data Scientists mit Anspruch auf spontane Experimentierfähigkeit mit Datenmengen, die vor einigen Jahren noch große Projekte bedeutet hätten. Zero Copy Cloning ist hier ein Schlüsselfaktor.
-
Governance sicherstellen
Governance, Data Lineage und Datenschutz sind von Tag 1 an mitzudenken. Moderne Werkzeuge und zentrale Anlaufstellen machen das, nach entsprechender Vorbereitung, einfacher.
-
Infrastructure-as-Code
Infrastructure-as-Code ist etablierte Praxis in Cloud-Native-Ansätzen und macht es leichter, in agiler Weise und dennoch nachhaltig Daten zu bewirtschaften. Neue Testsysteme können flexibel und günstig aufgebaut und wieder verworfen werden.
Aufbau eines Cloud Data Warehouse mit Snowflake, dbt und Power BI
Für strukturierte und semi-strukturierte Daten würden wir auf der grünen Wiese folglich gern mit den folgenden Komponenten eine flexible und günstige Cloud Native BI aufbauen:
- Einem PowerBI-Frontend,
- gefüllt aus einer hochskalierbaren Snowflake-Datenbank mit On-Demand-Leistung,
- deren Daten in der Azure-Cloud liegen
- und die mit einem Infrastructure-as-Code-Ansatz aufgebaut wird,
- deren ELT-Prozesse über dbt gesteuert werden,
- modelliert im Kern als Data Vault
- und zugreifbar für Data Scientisten aus kontrollierten, auditierbaren Machine Learning-Pipelines via Kubeflow, sowohl um Business-Cases damit zu realisieren als auch, um die Datenqualität zu überwachen und synthetische Testdaten herzustellen.
Warum steht in dieser Liste Snowflake und nicht Azure Synapse? Beides ist vorstellbar, aber Snowflake kombiniert aktuell die Innovationsführerschaft mit dem höheren Reifegrad.
Außerdem ist Snowflake ein strategischer Hebelpunkt — auf diesem Wege wird es realistisch möglich im Nachhinein den gesamten Datenbestand mit wirtschaftlichem Aufwand von einer Cloud in eine andere umzuziehen. Snowflake und auch Kubeflow entwickeln sich zu Schlüsseltechnologien, um den Vendor-Lock-in der Cloud-Anbieter wirksam zu begrenzen.
Lassen Sie uns darüber sprechen!
Einen guten Überblick geben auch die dazu passenden Talks auf dem NAVIGATE-Kongress: