Entwicklung einer Datenplattform im Bereich der Präzisionsmedizinforschung für die Pharma- und Biotechnologiebranche im Rahmen der Multi-Omics-Integration.
Aufgaben:
Entwurf und Bereitstellung von Azure-basierten Data Lakehouse-Lösungen, einschließlich Databricks-Azure. Dazu gehörten die Konfiguration des Unity-Catalog und die Einrichtung des Netzwerks.
Implementierung komplexer Data-Engineering-Pipelines für die Ingestion, Transformation und Persistenz von Daten in Delta-Tabellen mit Python, Scala und SQL, um die Bereitschaft für Analysen und nachgelagerte Workflows sicherzustellen.
Data-Lake-Ingestion-Schicht mit Echtzeit-Streaming und Batch-Technologien wie Kafka, Spark Structured Streaming und Eventhubs.
Automatisierte Bereitstellung der Lakehouse-Plattform auf Azure DevOps-Pipelines unter Verwendung von IaC mit Terraform (azurem) für Versionskontrolle, Bereitstellung und automatisierte Tests.
Integration von Databricks mit Azure ADSL Gen2 und Identitätsmanagement (verwaltete Identitäten, Zugriffsverbinder) zur Optimierung der Governance und Zugriffskontrolle.
Implementierung von Datenschutzmaßnahmen zur Einhaltung der DSGVO, einschließlich Pseudonymisierung und Anonymisierung von Benutzeridentifikatoren, rollenbasierter Zugriffskontrolle (RBAC) mit Azure AD-Integration, Datenaufbewahrungsrichtlinien mit automatisierten Lösch-Workflows, Schutz auf Spalten- und Zeilenebene und Datenmaskierung.
Datenqualitätssicherung mithilfe des "Expectation Management"-Frameworks.
Unterstützung interner Teams durch Einrichtung von Self-Service-Umgebungen, Konfiguration von Clustern, Dokumentation der Einrichtungsprozesse und Behebung von Bereitstellungsproblemen.
Ich bin ab dem 03.11.2025 verfügbar.
Aufgaben:
Technologien: Azure Synapse, Data Factory, Azure Functions, Event Hubs, Terraform, C#, Python. GX (Expectation Management).
Kunden: ORAYLIS GmbH, Telefónica Deutschland
Projekte & Ergebnisse
Kunden: Volkswagen Financial Services (VWFS)
Technologien: Azure Databricks, Spark (Scala, SQL, Python), Synapse Analytics, Kafka, Power BI, Azure DevOps, ADLS Gen2, Spark Structured Streaming, PowerShell Universal, Microsoft Azure Intune.
Kunden: BMW, Deutsche Börse
Deutsche Börse
BMW
Technologien: Hadoop (HDFS), YARN, Spark (Scala, Python), Kafka, Java, AMQP, OpenShift, Kubernetes, Docker, RESTful APIs, Swagger, Oracle, PostgreSQL, RabbitMQ, Jenkins, Kibana, Grafana, Prometheus.
Entwicklung von ETL-Pipelines und Webschnittstellen zur Automatisierung des Bestell- und Lieferprozesses, Lagerprüfung, Zahlungen, Versand und Kundenfeedback im Bereich E-Commerce.
Technologien: PHP, Java, Python, Javascript
Aufgaben:
ETL und Analyse von Daten aus SCADA-Systemen in Windparks, um Leistungsschwächen und technische Probleme zu erkennen.
Entwicklung von Tools in der Statistiksoftware R zur Berechnung der Auswirkungen von Wind und Wetter auf die Leistung einer Windkraftanlage.
Entwicklung von internen Software-Tools.
Kenntnisse:
C#, R, Statistik
Ich bin ein erfahrener Dateningenieur und Unternehmer mit einer nachgewiesenen Erfolgsbilanz bei der Konzeption, Entwicklung und Wartung von Big-Data-Pipelines für Echtzeit-Streaming- und Batch-Workflows. Ich verfüge über praktisches Fachwissen in den Bereichen Microservices-Architektur, RESTful APIs, Full-Stack-Webentwicklung und Testautomatisierung, das ich in Branchen wie Pharma, Biotech und Automotive eingesetzt habe.
Ich habe Projekte von der Datenerfassung bis zur Visualisierung geleitet, in agilen Umgebungen gearbeitet und verschiedene Teams koordiniert. Ich entwickle skalierbare Lösungen mit Tools wie Azure, Python, SQL, Kafka und Spark und stelle dabei die Datenqualität und effiziente Leistung in Cloud- und On-Premise-Infrastrukturen sicher.
Entdecken Sie andere Experten mit ähnlichen Qualifikationen und Erfahrungen.
2025 © FRATCH.IO GmbH. All rights reserved.