Konzeption und Implementierung einer cloudbasierten Datenplattform zur Unterstützung präzisionsmedizinischer Forschungsprojekte in der Pharma- und Biotechnologiebranche.
Aufgaben:
Entwicklung einer skalierbaren Data-Lakehouse-Architektur (Medallion Architecture) zur effizienten Integration, Verarbeitung und Analyse großer, komplexer Forschungsdaten.
Aufbau von Datenpipelines und Echtzeit-Datenströmen für die nahtlose Bereitstellung und Analyse von Forschungs- und Produktionsdaten.
Enge Zusammenarbeit mit fachlichen Stakeholdern zur Sicherstellung der Datenqualität und bedarfsgerechten Datennutzung.
Aufbau eines semantischen Datenmodells aus offentlichen Datenbanken wie HPA, Reactome, STRINGdb, ChEMBL, Uniprot, XENA, u.a.
**Technologien & Tools:
Microsoft Fabric, Azure Data Lake Storage Gen2, Azure Data Factory, Azure DevOps, Python(PySpark, BioPython, ML Flow) T-SQL, Power BI, Medallion Architecture, Datenmodellierung, PostgreSQL.
Aufgaben:
Entwicklung von Cloud-Anwendungen und der dazugehörigen Infrastruktur.
Konzeption und Umsetzung einer Strategie zur Datenqualitätsprüfung und -validierung für ein Azure Data Lakehouse mit Batch- und Streaming-Verarbeitung auf Basis der Medallion-Architektur.
Design und Implementierung von Datenpipelines innerhalb einer Lakehouse-Datenplattform.
Technologien: Azure Synapse, Data Factory, Azure Functions, Event Hubs, Terraform, C#, Python. GX (Expectation Management).
Kunden: ORAYLIS GmbH, Telefónica Deutschland
Technische Leitung auf Projektebene, Koordination von Teams bis zu fünf Personen.
Verantwortung für Design, Umsetzung und erfolgreiche Produktionsdeployments neuer Cloud-Datenlösungen.
Enge Abstimmung mit Stakeholdern sowie technisches Coaching im Team.
Projekte & Ergebnisse
Migration eines Oracle Exadata On-Premise DWH in die Cloud.
End-to-End-Entwicklung datengetriebener Anwendungen inkl. Support und Dokumentation.
Kunden: Volkswagen Financial Services (VWFS)
Technologien: Azure Databricks, Spark (Scala, SQL, Python), Synapse Analytics, Kafka, Power BI, Azure DevOps, ADLS Gen2, Spark Structured Streaming, PowerShell Universal, Microsoft Azure Intune.
Lead Developer – Big Data & Software Development
Kunden: BMW, Deutsche Börse
In der Rolle des technischen Leiters auf Projektebene verantwortlich für die Koordination von Entwicklerteams mit bis zu fünf Personen.
Steuerung der technischen Umsetzung von neuen Produkten von der Konzeption bis zum Go-Live.
Enge Abstimmung mit fachlichen und technischen Stakeholdern zur Sicherstellung der Projekterfolge und Einhaltung von Qualitätsstandards.
Planung und Durchführung mehrerer erfolgreiche Produktionsdeployments bei beiden Kunden.
Technische Führungsverantwortung: Architekturentscheidungen, technische Reviews, Coaching von Teammitgliedern.
Deutsche Börse
Technische Leitung und Mitgestaltung des Services C7 SCS (EUREX SCS Reporting Engine), der erfolgreich in Produktion übernommen wurde.
Sicherstellung der Betriebsstabilität und Performance der Big-Data-Pipelines im Live-Betrieb.
BMW
Technologien: Hadoop (HDFS), YARN, Spark (Scala, Python), Kafka, Java, AMQP, OpenShift, Kubernetes, Docker, RESTful APIs, Swagger, Oracle, PostgreSQL, RabbitMQ, Jenkins, Kibana, Grafana, Prometheus.
Entwicklung von ETL-Pipelines und Webschnittstellen zur Automatisierung des Bestell- und Lieferprozesses, Lagerprüfung, Zahlungen, Versand und Kundenfeedback im Bereich E-Commerce.
Technologien: PHP, Java, Python, Javascript
Aufgaben:
ETL und Analyse von Daten aus SCADA-Systemen in Windparks, um Leistungsschwächen und technische Probleme zu erkennen.
Entwicklung von Tools in der Statistiksoftware R zur Berechnung der Auswirkungen von Wind und Wetter auf die Leistung einer Windkraftanlage.
Entwicklung von internen Software-Tools.
Kenntnisse:
C#, R, Statistik
Ich bin ein erfahrener Dateningenieur und Unternehmer mit einer nachgewiesenen Erfolgsbilanz bei der Konzeption, Entwicklung und Wartung von Big-Data-Pipelines für Echtzeit-Streaming- und Batch-Workflows. Ich verfüge über praktisches Fachwissen in den Bereichen Microservices-Architektur, RESTful APIs, Full-Stack-Webentwicklung und Testautomatisierung, das ich in Branchen wie Pharma, Biotech und Automotive eingesetzt habe.
Ich habe Projekte von der Datenerfassung bis zur Visualisierung geleitet, in agilen Umgebungen gearbeitet und verschiedene Teams koordiniert. Ich entwickle skalierbare Lösungen mit Tools wie Azure, Python, SQL, Kafka und Spark und stelle dabei die Datenqualität und effiziente Leistung in Cloud- und On-Premise-Infrastrukturen sicher.
Entdecken Sie andere Experten mit ähnlichen Qualifikationen und Erfahrungen.