Migration von Tableau-Dashboards zu Power BI inklusive Übernahme der KPI-Logik
Neuaufbau und Optimierung von ETL-Pipelines in Microsoft Fabric mit Dataflows und PySpark, inklusive Kostenoptimierung
Entwurf und Implementierung einer Medallion-Architektur (Bronze, Silver, Gold)
Einführung von Governance-Standards und Erstellung der Dokumentation
Enge Zusammenarbeit mit Stakeholdern zur Definition und Validierung der Reporting-Anforderungen
Onboarding von Fachbereichen in die Self-Service-Datenplattform
Erfolgreiche Migration der Reports zu Power BI
Medallion-Architektur als Basis für Self-Service-BI etabliert
Deutlich reduzierte Datenverarbeitungszeiten durch optimierte Pipelines und PySpark in Fabric
Fachbereiche in die Lage versetzt, eigene Berichte in Power BI zu erstellen
Entwicklung von Power BI-Dashboards und Apps für Supply Chain- und Management-Reporting
Konsolidierung von Daten aus SQL Server, Snowflake, Databricks und SAP in Microsoft Fabric
Ausbau und Optimierung des Data Warehouses
Entwicklung leistungsstarker ETL-Workflows mit Dataflows, SQL-Skripten und PySpark
Harmonisierung von KPIs für standardisiertes Reporting
Stärkung der Data Governance-Strukturen (Zugriffsrechte, Rollen, Datenqualität, RLS)
Schulung der Anwender in der Nutzung von Power BI
Proof of Concept für Echtzeit-Reporting mit Apache Kafka in Power BI
Anforderungsanalyse mit den Fachabteilungen
Proof of Concept für Echtzeit-Reporting mit Apache Kafka in Fabric und Power BI
Erfolgreiche Konsolidierung heterogener Datenquellen in Microsoft Fabric
Entwicklung von Power BI-Dashboards für Management- und Supply Chain-Reporting
Aufbau einer Testumgebung in Microsoft Fabric zur Evaluierung von Funktionen und Architekturansätzen
Entwicklung erster ETL-Prozesse in Fabric zur Integration von Datenquellen
Entwurf und Validierung einer Medallion-Architektur als Basis für eine zukünftige Self-Service-Datenplattform
Erstellung von POC-Berichten in Power BI zur Demonstration der Plattform-Fähigkeiten
Dokumentation der Ergebnisse und Ableitung von Handlungsempfehlungen für einen möglichen Rollout
Kostenschätzung und Analyse sowie Kapazitätsmanagement im Rahmen der Fabric-Evaluierung
Nachweis der Machbarkeit von Fabric & Power BI als zukunftsfähige Analytics-Plattform
Aufbau eines Pilot-Frameworks als Grundlage für eine mögliche unternehmensweite Einführung
Erstellung von Power BI-Berichten mit Parametern, Slicern, Bookmarks und komplexen DAX-Berechnungen
Durchführung detaillierter Analysen zur Produkt- und Kundenperformance (z. B. ABC-Analysen, Kohortenanalysen, CLV, Conversion-Raten)
Modellierung von Datenstrukturen im Star Schema und Snowflake Schema
Entwicklung und Optimierung von ETL-Pipelines (SQL, Python, Power Query) zur Konsolidierung von Daten aus verschiedenen Quellsystemen
Dokumentation in Confluence
Verwaltung von Benutzerrollen, Berechtigungen und Workspaces im Power BI Service
Schulung von Power-Usern in Power BI zur Anwendung von Best Practices
Einrichtung von benutzerdefinierten Validierungsregeln und automatischen Benachrichtigungen
Reduzierung der Verarbeitungszeit um 40 % durch Refactoring einer komplexen ETL-Pipeline
Bereitstellung von Management-Dashboards
Entwicklung und Wartung von Power BI-Dashboards für Controlling und Management
Implementierung erweiterter Funktionen in Power BI (DAX-Maßnahmen, Parameter, Interaktionen mit Slicern und Bookmarks)
Modellierung von Data Marts zur Optimierung von Speicher- und Abfrageleistung
Erstellung und Optimierung von ETL-Pipelines mit Python, Oracle SQL (Views, Tabellen, PL/SQL) und Power Query / Dataflows
Entwicklung von Monitoring-Dashboards mit vordefinierten automatischen Benachrichtigungen in Power BI
Anpassung von Data Governance-Strukturen (Rollen- und Berechtigungskonzepte)
Schulung der Endanwender in der Nutzung von Power BI-Dashboards und im Erstellen von Power BI-Berichten
Entwicklung leistungsstarker und benutzerfreundlicher Dashboards
Performance-Optimierung durch effiziente Datenmodelle und optimierte ETL-Pipelines
Ich habe umfangreiche Expertise in Microsoft Fabric und Power BI und entwickle agile sowie optimierte Datenlösungen in verschiedenen Branchen wie Energie, Logistik, Entertainment, Automobil und Telekommunikation. Ich entwerfe Medallion-Architekturen, optimiere ETL-Pipelines mit PySpark und SQL und konsolidiere heterogene Datenquellen für Self-Service-BI und Echtzeitberichte.
Mein Fokus liegt auf messbaren Verbesserungen, der Reduzierung von Verarbeitungszeiten und der Etablierung effizienter Data Governance. Mein Hintergrund in Data Science und Angewandter Mathematik sowie mehrere wichtige Zertifizierungen bilden die Basis dafür, komplexe Anforderungen in einfache und wirkungsvolle Analytics-Lösungen zu übersetzen.
Entdecken Sie andere Experten mit ähnlichen Qualifikationen und Erfahrungen.
2025 © FRATCH.IO GmbH. All rights reserved.