Rodrigo H.

Senior Dateningenieur

München, Deutschland

Erfahrungen

Jan. 2025 - Bis heute
11 Monaten
München, Deutschland
Remote

Dateningenieur und Gründer

SapientVase GmbH

Entwicklung einer Datenplattform im Bereich der Präzisionsmedizinforschung für die Pharma- und Biotechnologiebranche im Rahmen der Multi-Omics-Integration.

Aufgaben:

  • Entwurf und Bereitstellung von Azure-basierten Data Lakehouse-Lösungen, einschließlich Databricks-Azure. Dazu gehörten die Konfiguration des Unity-Catalog und die Einrichtung des Netzwerks.

  • Implementierung komplexer Data-Engineering-Pipelines für die Ingestion, Transformation und Persistenz von Daten in Delta-Tabellen mit Python, Scala und SQL, um die Bereitschaft für Analysen und nachgelagerte Workflows sicherzustellen.

  • Data-Lake-Ingestion-Schicht mit Echtzeit-Streaming und Batch-Technologien wie Kafka, Spark Structured Streaming und Eventhubs.

  • Automatisierte Bereitstellung der Lakehouse-Plattform auf Azure DevOps-Pipelines unter Verwendung von IaC mit Terraform (azurem) für Versionskontrolle, Bereitstellung und automatisierte Tests.

  • Integration von Databricks mit Azure ADSL Gen2 und Identitätsmanagement (verwaltete Identitäten, Zugriffsverbinder) zur Optimierung der Governance und Zugriffskontrolle.

  • Implementierung von Datenschutzmaßnahmen zur Einhaltung der DSGVO, einschließlich Pseudonymisierung und Anonymisierung von Benutzeridentifikatoren, rollenbasierter Zugriffskontrolle (RBAC) mit Azure AD-Integration, Datenaufbewahrungsrichtlinien mit automatisierten Lösch-Workflows, Schutz auf Spalten- und Zeilenebene und Datenmaskierung.

  • Datenqualitätssicherung mithilfe des "Expectation Management"-Frameworks.

  • Unterstützung interner Teams durch Einrichtung von Self-Service-Umgebungen, Konfiguration von Clustern, Dokumentation der Einrichtungsprozesse und Behebung von Bereitstellungsproblemen.

Ich bin ab dem 03.11.2025 verfügbar.

Apr. 2024 - Juni 2024
3 Monaten
Zürich, Schweiz
Remote

Dateningenieur (Freiberuflich)

Callista ACE AG, Kunde: DENNER AG

Aufgaben:

  • Entwicklung von Cloud-Anwendungen und der dazugehörigen Infrastruktur.
  • Konzeption und Umsetzung einer Strategie zur Datenqualitätsprüfung und -validierung für ein Azure Data Lakehouse mit Batch- und Streaming-Verarbeitung auf Basis der Medallion-Architektur.
  • Design und Implementierung von Datenpipelines innerhalb einer Lakehouse-Datenplattform.

Technologien: Azure Synapse, Data Factory, Azure Functions, Event Hubs, Terraform, C#, Python. GX (Expectation Management).

März 2023 - Dez. 2024
1 Jahr 10 Monaten
München, Deutschland
Remote

Dateningenieur

Confiniti GmbH für Kunden: ORAYLIS GmbH, Telefónica Deutschland, Volkswagen Financial Services (VWFS)

Kunden: ORAYLIS GmbH, Telefónica Deutschland

  • Technische Leitung auf Projektebene, Koordination von Teams bis zu fünf Personen.
  • Verantwortung für Design, Umsetzung und erfolgreiche Produktionsdeployments neuer Cloud-Datenlösungen.
  • Enge Abstimmung mit Stakeholdern sowie technisches Coaching im Team.

Projekte & Ergebnisse

  • Migration eines Oracle Exadata On-Premise DWH in die Cloud.
  • End-to-End-Entwicklung datengetriebener Anwendungen inkl. Support und Dokumentation.

Kunden: Volkswagen Financial Services (VWFS)

  • Erstellung von Automatisierungs-Dashboards mit PowerShell Universal und Azure Intune.

Technologien: Azure Databricks, Spark (Scala, SQL, Python), Synapse Analytics, Kafka, Power BI, Azure DevOps, ADLS Gen2, Spark Structured Streaming, PowerShell Universal, Microsoft Azure Intune.

Sept. 2016 - Nov. 2022
6 Jahren 3 Monaten
München, Deutschland
Hybrid

Leitender Entwickler – Big Data- und Softwareentwicklung

NTT DATA DACH

Kunden: BMW, Deutsche Börse

  • In der Rolle des technischen Leiters auf Projektebene verantwortlich für die Koordination von Entwicklerteams mit bis zu fünf Personen.
  • Steuerung der technischen Umsetzung von neuen Produkten von der Konzeption bis zum Go-Live.
  • Enge Abstimmung mit fachlichen und technischen Stakeholdern zur Sicherstellung der Projekterfolge und Einhaltung von Qualitätsstandards.
  • Planung und Durchführung mehrerer erfolgreicher Produktionsdeployments bei beiden Kunden.
  • Technische Führungsverantwortung: Architekturentscheidungen, technische Reviews, Coaching von Teammitgliedern.

Deutsche Börse

  • Technische Leitung und Mitgestaltung des Services C7 SCS (EUREX SCS Reporting Engine), der erfolgreich in Produktion übernommen wurde.
  • Sicherstellung der Betriebsstabilität und Performance der Big-Data-Pipelines im Live-Betrieb.

BMW

  • Technische Leitung bei der Entwicklung neuer Microservices für Ferndienste in Elektrofahrzeugen, erfolgreich in mehreren Produktionsumgebungen ausgerollt.

Technologien: Hadoop (HDFS), YARN, Spark (Scala, Python), Kafka, Java, AMQP, OpenShift, Kubernetes, Docker, RESTful APIs, Swagger, Oracle, PostgreSQL, RabbitMQ, Jenkins, Kibana, Grafana, Prometheus.

Jan. 2015 - Aug. 2016
1 Jahr 8 Monaten
München, Deutschland
Vor Ort

Webentwickler

Schönberger-Group

Entwicklung von ETL-Pipelines und Webschnittstellen zur Automatisierung des Bestell- und Lieferprozesses, Lagerprüfung, Zahlungen, Versand und Kundenfeedback im Bereich E-Commerce.

  • Full-Stack-Entwicklung von Webanwendungen und Webportal.
  • Datenbankadministration und Fehlerbehebung.
  • Testen und Entwurf von Testprotokollen.

Technologien: PHP, Java, Python, Javascript

Apr. 2012 - Aug. 2013
1 Jahr 5 Monaten
Hamburg, Deutschland
Vor Ort

Daten Analyst - Student

Senvion SE

Aufgaben:

  • ETL und Analyse von Daten aus SCADA-Systemen in Windparks, um Leistungsschwächen und technische Probleme zu erkennen.

  • Entwicklung von Tools in der Statistiksoftware R zur Berechnung der Auswirkungen von Wind und Wetter auf die Leistung einer Windkraftanlage.

  • Entwicklung von internen Software-Tools.

Kenntnisse:

C#, R, Statistik

Zusammenfassung

Ich bin ein erfahrener Dateningenieur und Unternehmer mit einer nachgewiesenen Erfolgsbilanz bei der Konzeption, Entwicklung und Wartung von Big-Data-Pipelines für Echtzeit-Streaming- und Batch-Workflows. Ich verfüge über praktisches Fachwissen in den Bereichen Microservices-Architektur, RESTful APIs, Full-Stack-Webentwicklung und Testautomatisierung, das ich in Branchen wie Pharma, Biotech und Automotive eingesetzt habe.

Ich habe Projekte von der Datenerfassung bis zur Visualisierung geleitet, in agilen Umgebungen gearbeitet und verschiedene Teams koordiniert. Ich entwickle skalierbare Lösungen mit Tools wie Azure, Python, SQL, Kafka und Spark und stelle dabei die Datenqualität und effiziente Leistung in Cloud- und On-Premise-Infrastrukturen sicher.

Sprachen

Spanisch
Muttersprache
Deutsch
Verhandlungssicher
Englisch
Verhandlungssicher

Ausbildung

Okt. 2010 - Apr. 2014

Technische Universität Hamburg

Master of Science · Informationstechnologie · Hamburg, Deutschland

März 2003 - Juli 2007

Universität Guadalajara

Bachelor of Science, Schwerpunkt auf verteilten Systemen, Datenbankdesign und -management, angewandter Statistik, · Informatik · Guadalajara, Mexiko

Zertifikate & Bescheinigungen

DP-203 Zertifizierter Azure Data Engineer Associate

Confluent Certified Developer for Apache Kafka (CCDAK)

Confluent

Managerial Economics and Business Analysis (Online-Spezialisierung)

University of Illinois at Urbana-Champaign

Sie suchen Freelancer?Passende Kandidaten in Sekunden!
FRATCH GPT testen
Weitere Aktionen