Entwicklung einer umfassenden Datenstrategie und eines Governance-Frameworks für eine Datenmanagementplattform auf Databricks. In diesem Projekt leitete ich die Entwicklung einer robusten Datenstrategie und eines Governance-Frameworks zur Optimierung und Verbesserung der Datenverarbeitungskapazitäten der Organisation. Kern des Projekts war der Aufbau einer hochperformanten Datenmanagementplattform auf Databricks, ergänzt durch das Design und die Implementierung einer effizienten Data-Hub-Ingest-Plattform.
Services: Azure Databricks, Databricks Data Catalog, AWS EventBridge, Kinesis, Event Hub, Structured Streaming (Apache Spark)
Innovative Integration und Analyse von Logistikdatenströmen mit PySpark Structured Streaming und Data Mesh-Implementierung. Das Projekt konzentrierte sich auf die Integration von Logistikdatenströmen mit Event Hub und Kafka unter Verwendung von PySpark Structured Streaming.
Services: Azure Synapse Analytics, Purview Data Catalog, Event Hub, GraphFrame, PowerBI
Migration bestehender Datendienste und -pipelines zu einer neuen Architektur. Das Projekt unterstützte E-Commerce-Teams bei der Implementierung von Datenverarbeitungssystemen basierend auf serverlosen Technologien und Big-Data-Frameworks.
Services: AWS Glue, Apache Spark, Data Catalog, Athena, Redshift, Lambda, ECS, Step Functions
Verbesserung und Migration der Analytics-Datenpipelines zu einer Data Lakehouse-Architektur. Das Projekt fokussierte auf die Gewährleistung strenger Datenqualitäts- und Compliance-Standards, insbesondere DSGVO.
Services: AWS Glue, Spark, Lambda, AWS Codebuild, GitHub Actions, AWS CDK
Entwicklung einer Architektur und Implementierung einer Big-Data-Umgebung für Plattformdienste. Das Projekt umfasste die Integration von Datentransparenz, Datenqualität und die Implementierung agiler Methodologien.
Services: Azure Data Catalogue, Azure Synapse Analytics, Azure Data Factory, Azure Databricks, Docker, Terraform
Implementierung einer AWS-Infrastruktur zur Unterstützung internationaler Anwendungen im Transport- und Logistiksektor. Das Projekt umfasste die Identifizierung und Implementierung von Optimierungen.
Deployment mittels Terraform
Anwendungsmigration für einen Geschäftsbereich inkl. Aufbau AD. Bereitstellung von AWS Infrastruktur und Infrastructure-as-Code. Realisierung einer Web-Applikation zur Verwaltung des Zertifizierungsprozesses.
Aufbau einer Marktplatzplattform basierend auf Microsoft Azure Services
Implementierung von Python-Logik in AWS Lambda
Big data specialist schwerpunkt: big data cloud-architektur, datenmanagement-plattformen
Berufserfahrung: Deutsche Bahn Jungheinrich Lufthansa Technik Fielmann BMW Group
Fähigkeiten spezialist in big data plattformen auf Amazon Web Services & Microsoft Azure ETL-prozesse/pipelines & data-engineering architektur von datenmanagement-plattformen in großen unternehmen aufbau von data lakes & data lakehouse anwendungsmigrationen unter verwendung von cloud-services beratung & implementierung von automatisierungskonzepten, insbesondere DataOps & DevOps integration von Active Directory sicherheitskonzepten und compliance-anforderungen Python, SQL, TypeScript, Golang
Technische und methodische fähigkeiten big data cloud architekturen (AWS & Microsoft Azure) data engineering (Databricks, Synapse Analytics, Fabric, Apache Spark, AWS Glue, Athena, Redshift & EMR) infrastructure as code (Terraform, Pulumi, AWS CDK, ARM)
Entdecken Sie andere Experten mit ähnlichen Qualifikationen und Erfahrungen.