Recommended expert

Jorge Machado

Datenarchitekt

Jorge Machado
Würzburg, Deutschland

Erfahrungen

März 2025 - Bis heute
1 Jahr

Datenarchitekt

Deutsche Bahn

  • Entwurf und Bereitstellung von Best Practices für Data Modeling mit dbt, einschließlich sich ändernder Dimensionen, Umgang mit verspätet eingehenden Daten und Tests
  • Entwurf des Datenladeflusses von anderen Systemen nach S3 und Redshift
  • Entwurf und Implementierung neuer Partitionen für Dagster und inkrementelles Laden mit dbt
  • Abbildung fachlicher Anforderungen auf technische Architekturen
  • Anleitung von Junior-Teammitgliedern
Sept. 2024 - März 2025
7 Monate

Datenarchitekt-Experte

SAP AG

  • Leitung des Architekturdesigns und der Umsetzung des Kafka Tiered Storage Rollouts auf mehr als 30 Kubernetes-Clustern in Multi-Cloud-Umgebungen (Azure, AWS, GCP)
  • Definition und Implementierung der Infrastruktur-Provisionierung mit Crossplane für deklarative und konsistente Bereitstellung über verschiedene Cloud-Anbieter hinweg
  • Entwicklung eines maßgeschneiderten, in Golang geschriebenen Kafka Operators zur Standardisierung der Aktivierung von Tiered Storage für Datenpipelines
  • Entwurf und Automatisierung von GitOps-basierten Deployment-Strategien mit Flux und Helm für sichere und wiederholbare Rollouts
  • Optimierung der Gardener-Shoot-Konfigurationen zur Anpassung der Cluster-Ressourcen an Kafka-Arbeitslasten und Anforderungen an Kosteneffizienz
Mai 2024 - Nov. 2024
7 Monate

Datenarchitekt-Experte

s.Oliver GmbH

  • Entwurf einer Medallion-Architektur auf Databricks für skalierbare, modulare Datenaufnahme, -transformation und -nutzung
  • Implementierung inkrementeller ETL-Pipelines mit PySpark zur effizienten Extraktion und Verarbeitung von SAP-Daten
  • Entwurf und Implementierung von dbt-basierten semantischen Schichten mit dimensionaler Modellierung für Fakt- und Dimensionstabellen
  • Einrichtung von Dev-to-Prod-CI/CD-Pipelines zur Standardisierung von Deployments und Durchsetzung von Governance
  • Definition von rollenbasiertem Zugriffskontroll- und Sicherheitskonzepten gemäß den Azure-Standards des Unternehmens
  • Ermöglichung der Echtzeit-Datenintegration durch Verbindung von Kafka-Streams mit Databricks für erweiterte Analysen
  • Einführung von KI/ML-Anwendungsfällen, darunter FP-Growth für Warenkorbanalysen und Zeitreihen-Forecasting-Modelle
  • Betreuung von Junior-Entwicklern in Databricks-Best Practices zur Sicherstellung einer langfristigen Plattformakzeptanz
Jan. 2023 - Aug. 2023
8 Monate

Datenarchitekt-Experte

ias Gruppe

  • Architektur und Implementierung einer End-to-End Azure Data Lakehouse-Lösung unter Einsatz von Azure Synapse, Delta Lake und Azure Data Lake Storage Gen2 für skalierbaren Speicher und Abfrageleistung
  • Entwurf und Implementierung von Streaming-Ingestion-Pipelines mit Azure IoT Hub, Event Hub und Service Bus zur Echtzeit-Erfassung von Telemetriedaten tausender IoT-Geräte
  • Entwicklung von Datenintegrations- und Transformationsabläufen mit Airbyte für ELT und dbt für Geschäftslogik-Modellierung, dimensionales Design und Lineage-Tracking
  • Orchestrierung komplexer Datenworkflows mit Azure Data Factory unter Einbindung von Batch- und Streaming-Prozessen
  • Implementierung von Delta Lake-basiertem Time Travel und ACID-Transaktionen für Datenzuverlässigkeit und Nachverfolgbarkeit
  • Entwurf von RBAC- und Ressourcentagging-Strategien sowie Monitoring mit Azure Monitor und Log Analytics für operative Transparenz und Sicherheit
  • Ermöglichung der Power BI-Integration für nahezu Echtzeit-Business-Dashboards und Zusammenarbeit mit Produkt- und Betriebsteams bei der Übersetzung von Anforderungen
Sept. 2022 - Mai 2024
1 Jahr 9 Monate
Frankfurt, Deutschland

Datenarchitekt-Experte

Deutsche Bahn

  • Entwurf und Implementierung von Echtzeit-Streaming-Architekturen mit AWS Kinesis, Lambda und Apache Spark für zeitkritische Analysefälle
  • Architektur und Implementierung von Delta-Ingestion-Pipelines auf AWS Glue und Apache Hudi für effiziente Kompaktierung kleiner Dateien und Time-Travel-Analysen
  • Bereitstellung unternehmenskritischer KPIs und Dashboards mit End-to-End-Datenherkunft und Auditierbarkeit über S3, PostgreSQL und CloudWatch
  • Definition und Durchsetzung von Infrastructure-as-Code-Prinzipien mit AWS CDK für skalierbare, reproduzierbare Umgebungen
  • Einführung und Rollout von dbt für semantische Modellierung und wiederverwendbare Geschäftslogik, integriert in GitLab-CI/CD-Workflows
  • Durchführung architektonischer Bewertungen von Databricks, Snowflake und AWS Athena zur Unterstützung von Entscheidungen zur zukünftigen Plattformstrategie
  • Betreuung eines Entwicklerteams, Optimierung von Entwicklungszyklen und Sicherstellung von Best Practices im Cloud Data Engineering
  • Implementierung von IoT-4.0-Pipelines zur Erfassung von Telemetriedaten und Unterstützung von Predictive-Analytics-Initiativen
Sept. 2021 - Sept. 2022
1 Jahr 1 Monat
Rottendorf, Deutschland

Kafka-Experte

S.Oliver GmbH

  • Entwickelte Spring-Boot-Kafka-Streams-Anwendungen
  • Erstellte individuelle Kafka-Source-Connectoren für SAP-Systeme und individuelle Sink-Connectoren zum Zurückschreiben in SAP
  • Setzte Kafka-Connect-Connectoren mit Überwachung auf dem Azure Kubernetes Service ein
  • Entwickelte Datenpipelines mit Airflow und Azure Cloud
  • Entwarf Datenpipelines zwischen On-Premise und Azure Cloud
  • Schrieb Spark-Jobs zum Säubern und Aggregieren von Daten
Feb. 2021 - Aug. 2022
1 Jahr 7 Monate
Deutschland

Softwareentwickler

RTL Deutschland

  • Entwarf und implementierte eine Lakehouse-Architektur mit Azure Databricks, Delta Lake und Azure Synapse für Batch- und Echtzeit-Workloads mit ACID-Konformität
  • Erstellte RESTful Data-APIs mit FastAPI und stellte sie über Azure App Services als kontrollierte Zugangsschicht bereit
  • Entwickelte inkrementelle ETL-Pipelines mit PySpark und dbt und implementierte Star-Schema-Modelle für semantische Konsistenz und historische Nachverfolgung
  • Ermöglichte interaktive Berichte und visuelle Analysen mit in Azure integriertem Power BI
  • Implementierte strenge Datenzugriffskontrollen, Audit-Protokollierung und Ressourcenüberwachung für DSGVO-Konformität und Governance
  • Etablierte automatisierte CI/CD-Pipelines für die Dateninfrastruktur mit Azure-nativen Tools
Sept. 2020 - Juni 2021
10 Monate
München, Deutschland

Cloud-Lösungsarchitekt

Allianz Technology

  • Migrierte Data Lakes in die Azure Cloud mit hoher Automatisierung unter Einsatz von ArgoCD, Jenkins, Helm-Charts und Terraform
  • Entwickelte Spark-Jobs für die Data-Lake-Migration
  • Erstellte Helm-Charts für die Azure AKS-Automatisierung
  • Refaktorierte Anwendungsdesigns zu Cloud-Native und integrierte interne Kunden in Azure
  • Implementierte Spring-Boot-Kafka-Streams-Anwendungen und Argo-Workflow-Pipelines
März 2020 - Mai 2020
3 Monate
München, Deutschland

Big Data-Architekt, Datenarchitekt

BMW AG

  • Entwickelte Datenpipelines mit Spark und Airflow für Daten autonomer Fahrzeuge
  • Erstellte Metriken für geospatiale Anwendungen
  • Überführte Daten mit Apache Spark in Elasticsearch
  • Wandte Prinzipien der funktionalen Programmierung mit Scala an
Jan. 2020 - Mai 2020
5 Monate
Stuttgart, Deutschland

Big Data-Entwickler

DXC

  • Automatisierte Bereitstellungen von Azure Kubernetes-Clustern
  • Erstellte und setzte Deep-Learning-Spark-Jobs mit PyTorch und GPUs auf Kubernetes ein
  • Führte GPU-Inferenz auf Terabyte-Daten durch
Sept. 2017 - Juni 2018
10 Monate
Nürnberg, Deutschland

Big Data Entwickler, Spark/Kafka Entwickler, Datenarchitekt

GfK

  • Entwickelte Kafka-Connectoren, um Daten in Accumulo in einer kerberisierten Umgebung
  • Kerberisierte Anwendungen für Hadoop, Kafka und Kafka Connect
  • Erstellte Statistikpläne für RDF4J-Abfragen auf Accumulo
  • Entwickelte Apache NiFi Workflows
  • Führte Git-Flow, CI/CD und Docker-Automatisierung ein
  • Setzte Kafka Connect mit Kerberos auf Google Kubernetes auf
  • Schrieb Java-Anwendungen basierend auf RDF und Web-Semantik
Apr. 2017 - Sept. 2017
6 Monate
Frankfurt, Deutschland

Big Data Architekt

Deutsche Bahn

  • Dimensionierte und konfigurierte Hadoop-Cluster mit Kerberos und Active Directory
  • Migrierte Daten mit Sqoop und verwaltete Workflows mit Oozie
  • Implementierte Datenpipelines mit Kylo, Apache NiFi und Talend
  • Setzte Hortonworks Cloud Break auf AWS ein und stellte Apache Storm Streaming-Anwendungen bereit
  • Unterstützte interne Kunden bei Streaming- und Datenbereinigungsprozessen
Okt. 2016 - März 2017
6 Monate
Dresden, Deutschland

Big Data Entwickler und Architekt

Kiwigrid

  • Erstellte Spark-Jobs für historische Datenberichte
  • Entwickelte benutzerdefinierte Spark-Datenquellen für HBase und Aggregationen zur Datenerkundung
  • Konzipierte ein Alarmierungs- und Rechenframework basierend auf Spark Streaming
  • Setzte Anwendungen mit Docker ein

Industrie Erfahrung

Sehen Sie, wo dieser Freiberufler den Großteil seiner beruflichen Laufbahn verbracht hat. Längere Linien stehen für umfangreichere praktische Erfahrung, während kürzere Linien auf gezielte oder projektbezogene Arbeit hindeuten.

Erfahren in Transport (3 Jahre), Informationstechnologie (2 Jahre), Mode (1.5 Jahre), Einzelhandel (1.5 Jahre), Medien und Unterhaltung (1.5 Jahre) und Versicherung (1 Jahr).

Transport
Informationstechnologie
Mode
Einzelhandel
Medien und Unterhaltung
Versicherung

Geschäftsbereich Erfahrung

Die folgende Grafik bietet einen Überblick über die Erfahrungen des Freiberuflers in verschiedenen Geschäftsbereichen, berechnet anhand abgeschlossener und aktiver Aufträge. Sie zeigt die Bereiche, in denen der Freiberufler am häufigsten zur Planung, Umsetzung und Erzielung von Geschäftsergebnissen beigetragen hat.

Erfahren in Informationstechnologie (7.5 Jahre), Business Intelligence (5.5 Jahre) und Produktentwicklung (0.5 Jahre).

Informationstechnologie
Business Intelligence
Produktentwicklung

Fähigkeiten

Allgemeine Fähigkeiten:

  • Apache Spark
  • Java Mapreduce
  • Scala
  • Java
  • Python
  • Perl
  • Tornado
  • Rest-apis
  • Jira
  • Etl
  • Docker
  • Maven
  • Gradle
  • Kubernetes
  • Jenkins
  • Cloud Build
  • Azure Cosmos Db
  • S3
  • Neo4j
  • Azure Kubernetes Service
  • Aks
  • Flask
  • Spring Boot
  • Data Vault 2.0
  • Pytorch
  • Tensorflow
  • Azure Iot
  • Modbus
  • Mqtt
  • Opc
  • Sps
  • Azure Data Factory
  • Azure Synapse
  • Llm

Betriebssystem-kenntnisse:

  • Aix
  • Ubuntu
  • Centos
  • Macos
  • Windows Server 2008 R2
  • Flexframe
  • Routing
  • Git
  • Ibm Hadr
  • Ibm Tsm
  • Aws S3
  • Apache Mesos

Sap-kenntnisse:

  • Rfc
  • Snc
  • Charm
  • Kernel-upgrades
  • Ehp-upgrade
  • Ssfs
  • Sso
  • Hana

Datenbanken:

  • Oracle 11
  • Db2
  • Sap Maxdb
  • Mysql
  • Aws Redshift
  • Postgresql

Cloud-technologien:

  • Aws Emr
  • Aws Glue
  • Aws Ecs
  • Aws S3
  • Google App Engine
  • Azure Kubernetes
  • Azure-container

Sprachen

Deutsch
Verhandlungssicher
Englisch
Verhandlungssicher

Zertifikate & Bescheinigungen

Databricks Lakehouse Platform Akkreditierung

Confluent-zertifizierter Entwickler für Apache Kafka

Generative KI mit großen Sprachmodellen (LLM)

CKAD: Zertifizierter Kubernetes-Anwendungsentwickler

Microsoft-zertifiziert: Azure-Grundlagen

Data Engineering Nanodegree

Grundlagen der funktionalen Programmierung in Scala auf Coursera

Big Data Analytics Fraunhofer IAIS

Big Data Analytics der University of California, San Diego auf Coursera

Databricks-Entwicklerschulung für Apache Spark

Hadoop-Plattform und Anwendungsframework der University of California auf Coursera

Maschinelles Lernen mit Big Data der University of California, San Diego auf Coursera

SAP OS- und DB-Migration (TADM70)

SAP Datenbankadministration I (Oracle) (ADM 505)

SAP Datenbankadministration II (Oracle) (ADM 506)

SAP NetWeaver AS Implementierung und Betrieb I (SAP TADM10)

SAP NetWeaver Portal - Implementierung und Betrieb (TEP10)

ITL Foundation V4

Profil

Erstellt
Sie suchen Freelancer?Passende Kandidaten in Sekunden!
FRATCH GPT testen
Weitere Aktionen

Frequently asked questions

Sie haben Fragen? Hier finden Sie weitere Informationen.

Wo ist Jorge ansässig?

Jorge ist in Würzburg, Deutschland ansässig.

Welche Sprachen spricht Jorge?

Jorge spricht folgende Sprachen: Deutsch (Verhandlungssicher), Englisch (Verhandlungssicher).

Wie viele Jahre Erfahrung hat Jorge?

Jorge hat mindestens 7 Jahre Erfahrung. In dieser Zeit hat Jorge in mindestens 10 verschiedenen Rollen und für 11 verschiedene Firmen gearbeitet. Die durchschnittliche Dauer der einzelnen Projekte beträgt 1 Jahr und 7 Monate. Beachten Sie, dass Jorge möglicherweise nicht alle Erfahrungen geteilt hat und tatsächlich mehr Erfahrung hat.

Für welche Rollen wäre Jorge am besten geeignet?

Basierend auf der jüngsten Erfahrung wäre Jorge gut geeignet für Rollen wie: Datenarchitekt, Datenarchitekt-Experte, Kafka-Experte.

Was ist das neueste Projekt von Jorge?

Die neueste Position von Jorge ist Datenarchitekt bei Deutsche Bahn.

Für welche Unternehmen hat Jorge in den letzten Jahren gearbeitet?

In den letzten Jahren hat Jorge für Deutsche Bahn, SAP AG, s.Oliver GmbH, ias Gruppe und S.Oliver GmbH gearbeitet.

In welchen Industrien hat Jorge die meiste Erfahrung?

Jorge hat die meiste Erfahrung in Industrien wie Transport, Informationstechnologie und Mode. Jorge hat auch etwas Erfahrung in Einzelhandel, Medien und Unterhaltung und Versicherung.

In welchen Bereichen hat Jorge die meiste Erfahrung?

Jorge hat die meiste Erfahrung in Bereichen wie Informationstechnologie, Business Intelligence und Produktentwicklung.

In welchen Industrien hat Jorge kürzlich gearbeitet?

Jorge hat kürzlich in Industrien wie Transport, Informationstechnologie und Mode gearbeitet.

In welchen Bereichen hat Jorge kürzlich gearbeitet?

Jorge hat kürzlich in Bereichen wie Informationstechnologie und Business Intelligence gearbeitet.

Ist Jorge zertifiziert?

Jorge hat 18 Zertifikate. Darunter sind: Databricks Lakehouse Platform Akkreditierung, Confluent-zertifizierter Entwickler für Apache Kafka und Generative KI mit großen Sprachmodellen (LLM).

Wie ist die Verfügbarkeit von Jorge?

Jorge ist sofort verfügbar für passende Projekte.

Wie hoch ist der Stundensatz von Jorge?

Der Stundensatz von Jorge hängt von den spezifischen Projektanforderungen ab. Bitte verwenden Sie die Meet-Schaltfläche im Profil, um ein Meeting zu planen und die Details zu besprechen.

Wie kann man Jorge beauftragen?

Um Jorge zu beauftragen, klicken Sie auf die Meet-Schaltfläche im Profil, um ein Meeting anzufragen und Ihre Projektanforderungen zu besprechen.

Durchschnittlicher Tagessatz für ähnliche Positionen

Die Tagessätze basieren auf aktuellen Projekten und enthalten keine FRATCH-Marge.

1200
900
600
300
⌀ Markt: 900-1060 €
Die angegebenen Tagessätze entsprechen der typischen Marktspanne für Freiberufler in dieser Position, basierend auf aktuellen Projekten auf unserer Plattform.
Die tatsächlichen Tagessätze können je nach Dienstalter, Erfahrung, Fachkenntnissen, Projektkomplexität und Auftragsdauer variieren.