Konzipierte und implementierte ein dreistufiges Enterprise-Data-Warehouse-Modell in Azure für eine robuste und skalierbare Datenumgebung.
Migrierte Legacy Stored Procedures zu optimierten Azure Data Factory (ADF)-Pipelines und steigerte so die Verarbeitungseffizienz.
Führte Git-basiertes Source Control ein und sicherte rigore Versionierung und kollaborative Entwicklung.
Etablierte automatisierte Datenqualitätsrahmen mit Monitoring und Alerts zur deutlichen Verbesserung der Datenintegrität.
Leitete das Design eines Enterprise-Datenmodells und ermöglichte ein Self-Service-BI für erweiterte Analysen.
Entwickelte und lieferte aussagekräftige Dashboards und Berichte in Power BI und wandelte Rohdaten in nutzbare Business-Insights um.
Azure Data Factory (ADF), Azure, MS-SQL, DataVault 2.0, Git, Power BI, Data Quality Automation, Agile/SCRUM, Datenmodellierung, Self-Service BI, Stakeholder-Management.
Wesentliches Mitglied beim Entwurf und Aufbau von Data Marts (Modellen) und Pipelines für strukturierte Daten im Data Lake mit Fokus auf SCM (Lieferanten) und Marketing.
Führte ein Migrationsteam (4 FTE) zur Umstellung bestehender ETL-Pipelines auf Snowflake inklusive Datenmodellierung.
Entwickelte komplexe Datenpipelines in PySpark, Python, Airflow und HQL für großskalige Datenverarbeitung mit starkem technischem und architekturellem Hintergrund.
Arbeitete in einem Agile-Scrum-Team mit über 30 interdisziplinären Mitgliedern von Business Analysts bis Data Scientists.
Airflow, dbt, SQL, Python, Spark, Snowflake, Grafana, Visual Studio Code, Hadoop, Perl, Bash/UNIX-Scripting, Stakeholder-Management.
Doppelfunktion als Data Engineer und Solution Architect; leitete die Neugestaltung von Data Marts in der Pannenhilfe-Abteilung im Rahmen der Migration zu Snowflake.
Verantwortete das Reverse-Engineering der Customer Demand List (CDL) zur Performanceoptimierung – technische und architektonische Führung.
Verließ das Projekt nach der Implementierungsphase aus Budgetgründen, nachdem eine stabile Basis für die Datenabläufe geschaffen war.
Snowflake SQL, Azure, MS-SQL, SSIS ETL, Upsolver, JIRA, Agile/Scrum, DevOps, DataVault 2.0, QlikView, Power BI, DataHub, DataVault, ANWB Hulpverlening, Data Quality Automation, Data Science, Hackathons, AI/ChatGPT.
Arbeitete 4,5 Jahre als Selbstständiger für mehrere US-Unternehmen und erwarb fundierte Kenntnisse in Cloud-Server-Technologien, Python, Datenorchestrierung und Big Data.
Meta Platforms Inc. (Facebook) | Menlo Park, USA
Entwarf und entwickelte mehrere Data Marts und Dashboards für die Infra-Abteilung in Zusammenarbeit mit Data Scientists.
Identifizierte proaktiv nutzbare Datenpunkte zur Verkürzung der Reaktionszeiten der Oncall-Teams.
Als technischer Lead verantwortlich für Vorschlag, Design und Entwicklung von End-to-End-Lösungen: Datenanalyse, Transformationslogik, Datenpipelines, Visualisierung, Systemtests, UAT und Präsentationen.
Presto SQL, Unidash, Python, Big Data, Data Lake, Hive, Oncall-Teams, Infra.
Boston Consulting Group | Boston, USA
Reverse-Engineered (Oracle DI, SQL Server) Pipelines zu Snowflake SQL.
Neu implementiert als Data Mart Views in Snowflake und automatisierte Pipeline-Orchestrierung mit Fivetran.
Technischer Lead und Schnittstelle zwischen Business Units und Tech Support bei Migrationsprojekten.
Snowflake SQL, Fivetran, MS-SQL Server, MySQL, GitLab, PL/SQL, Oracle, SAP Enterprise, Slack, Jira.
Randstad Technologies | Atlanta, USA
Entwarf dimensionale Enterprise-Datenmodelle, migrierte Daten, entwickelte neue Pipelines und Marts, führte QA-Tests, Code Reviews und Releases für Billing, Personalvermittlung und Kundendaten in Agile/SCRUM-Teams durch.
Reverse-Engineered Talend-ETL-Pipelines zu einer ELT-Architektur basierend auf Apache Airflow auf Google Cloud Platform (GCP) BigQuery.
Optimierte Systeme zur Code-Generierung für konfigurierbare Abläufe.
BigQuery, Python, Airflow, Data Marts, Spinnaker, GitLab, Talend, Oracle, SQL, SOA.
WarnerMedia (HBO) | New York, USA
Ermöglichte Marketing-Analytics durch Laden von Werbedaten in Snowflake mit Pipelines in Airflow, Python und SnowSQL.
Entwickelte eine Python-Lösung für automatische Datenqualitätsüberprüfung und Alerts.
Re-Engineered bestehendes Data Warehouse für bessere Effizienz und weniger Redundanz.
Mentorte remote Teammitglieder zur Verkürzung der Einarbeitung.
Snowflake, Python, GitHub, JSON, Airflow, Datenmodellierung, Agile/SCRUM, Teamführung.
Newsela Inc. | New York, USA
Migrierte User-Activity-Tracking und Engagement-Warehouse von Redshift zu Snowflake mit Loome Streams.
Optimierte SnowSQL-Skripte und reduzierte Kosten um 40 %.
Entwickelte automatisierte Verfahren zur Validierung von Datenanomalien und Kalenderausnahmen.
Snowflake SQL, SOA, Python, Looker, Loome, Fivetran, Kinesis, AWS, Redshift, JSON, Enterprise Data Integration, Data Lake–Marts–Modelle.
Arbeite seit acht Jahren als Berater auf Projektbasis für diverse Organisationen in den Niederlanden und liefere hochwertige Services zur Verbesserung von Datenstrukturen, Informationssystemen und Geschäftsprozessen.
Volkswagen Pon Financial Services | Amersfoort, NL
Entwarf und entwickelte ein Tool zur Anonymisierung sensibler Daten.
GDPR, MS-SQL, SSIS, C#, VB.NET.
NIBC NV | Den Haag, NL
Beteiligt an über sieben Enterprise-Datenprojekten als Senior MSBI-Entwickler, Datenanalyst und DWH-Modelleur.
Regulatorisches Reporting: AnaCredit, DGS, VIA, Kostenallokationsmodell, Data Virtualization.
ING Bank | Amsterdam, NL
Neugestaltung eines fehlerhaften Reporting-Systems, fungierte als Scrum Master und technischer SQL-Lead.
IFRS 9, Liquidity Coverage Ratio (LCR), Oracle PL/SQL, SAP, DNB, EZB, MiFID II, FINREP, COREP.
WSW | Hilversum, NL
Entwickelte Softwarelösungen für Finanz- und Geschäftsrisikomodelle in der Immobilienbranche.
S&P Matrix, T-SQL, SSIS-Framework, DQM, MDM, QlikView.
KASBANK | Amsterdam, NL
Implementierte Data-Warehouse-Lösungen als Senior BI-Entwickler.
Agile/SCRUM, Lead BI, MS-SQL, Kimball, BI-Framework, SSIS ETL, C#, ISIN, Custodian.
Simon Loos | Wognum, NL
Datenbankmigration für Logistik-Planungssysteme.
MS-SQL, Kimball, Kosteneffiziente Planung, Transport, Logistik, SSRS, Agile/SCRUM.
Mitglied des VisionWorks-Teams als Datenberater für schnelle Marketing-, Gaming- und Finanzlösungen.
Senior-Techniker mit über 15 Jahren Erfahrung darin, Unternehmen zu helfen, Geschäftsdaten und Informationsmanagementsysteme zu strukturieren und zu nutzen, um Entscheidungen zu unterstützen.
Schwerpunkte in Prozessberatung, Datenmodellierung und -integration sowie Automatisierung von Datenflüssen.
Übernimmt stets Verantwortung und zeigt Führungsstärke. Gut in Projektmanagement, Stakeholdermanagement und interdisziplinärer, globaler Teamarbeit.
Kürzlich von New York nach Genf umgezogen. Suche passende Position auf Projekt- oder Festanstellungsbasis.
Entdecken Sie andere Experten mit ähnlichen Qualifikationen und Erfahrungen.
2025 © FRATCH.IO GmbH. All rights reserved.