Blog
Vermeide schlechte Daten von Anfang an
Das Erfassen aller Daten ohne Qualitätsprüfungen führt zu wiederkehrenden Problemen. Priorisieren Sie die Datenqualität von Anfang an, um nachgelagerte Probleme zu vermeiden.
Datenprodukt-Portal-Integrationen 2: Helm
Willkommen zur nächsten Folge unserer Serie über die Integrationen des Data Product Portals!
Datenprodukt-Portal-Integrationen 1: OIDC
Wie man Open ID Connect mit dem Data Product Portal integriert
Der Stand der Datenprodukte im Jahr 2024
Gartner hat seinen Hype-Zyklus für Datenmanagement 2024 veröffentlicht.
Einführung des Data Product Portal: Ein Open-Source-Tool zur Skalierung Ihrer Datenprodukte
In der sich schnell entwickelnden Welt der Daten stellen Unternehmen fest, dass der Schlüssel zum Erfolg beim Skalieren ihrer Daten
Das fehlende Stück zur Daten-Demokratisierung ist handlungsorientierter als ein Katalog.
Seit den neunziger Jahren, mit dem Aufkommen von Business Intelligence,
Blog
Ein 5-Schritte-Ansatz zur Verbesserung der Datenplattform-Erfahrung
Verbessern Sie die UX der Datenplattform mit einem 5-Schritte-Prozess: Feedback sammeln, Benutzerreisen kartieren, Reibung reduzieren und kontinuierlich durch Iteration verbessern.
Source-Aligned Data Products: The Foundation of a Scalable Data Mesh
Source-Aligned Data Products ensure trusted, domain-owned data at the source—vital for scalable, governed Data Mesh success.
Warum Sie eine Benutzeroberfläche für Ihre Datenplattform erstellen sollten
Moderne Datenplattformen sind komplex. Wenn Sie sich Referenzarchitekturen ansehen, wie die von A16Z unten, enthält sie mehr als 30 Kästen.
Blog
Ein Einblick in das Leben eines Datenführers
Datenführer stehen unter Druck, den Hype um KI mit der Organisation der Datenlandschaft in Einklang zu bringen. So bleiben sie fokussiert, pragmatisch und strategisch.
Die Bausteine erfolgreicher Daten-Teams
Basierend auf meiner Erfahrung werde ich die wichtigsten Kriterien für den Aufbau erfolgreicher Daten-Teams näher erläutern.
Blog
Von Gutem AI zu Gutem Data Engineering. Oder wie Verantwortungsbewusste AI mit Hoher Datenqualität zusammenwirkt.
Verantwortliche KI hängt von hochwertiger Datenverarbeitung ab, um ethische, faire und transparente KI-Systeme zu gewährleisten.
Prompt-Engineering für eine bessere SQL-Codegenerierung mit LLMs
Stellen Sie sich vor, Sie sind ein Marketing-Manager, der damit beauftragt ist, Werbestrategien zu optimieren, um verschiedene Kundensegmente effektiv anzusprechen…
Blog
Integrating MegaLinter to Automate Linting Across Multiple Codebases. A Technical Description.
Automate code quality with MegaLinter, SQLFluff, and custom checks in Azure DevOps CI. Supports multi-language linting and dbt integration.
Monitoring thousands of Spark applications without losing your cool
Monitor Spark apps at scale with CPU efficiency to cut costs. Use Dataflint for insights and track potential monthly savings.
Datenstabilität mit Python: Wie man selbst die kleinsten Änderungen erfasst
Als Data Engineer ist es fast immer die sicherste Option, Daten-Pipelines alle X Minuten auszuführen. So können Sie nachts gut schlafen…
Entmystifizierung des Geräteflusses
Implementierung des OAuth 2.0 Device Authorization Grant mit AWS Cognito und FastAPI
Kurze Feedbackzyklen auf AWS Lambda
Eine Makefile, die es ermöglicht, schnell zu iterieren
Alter der DataFrames 2: Polars Ausgabe
In dieser Veröffentlichung präsentiere ich einige Tricks und Funktionen von Polars.