Recommended expert

Jan Krol

Datenexperte

Jan Krol
Berlin, Deutschland

Erfahrungen

Juni 2024 - Bis heute
1 Jahr 8 Monaten

Datenexperte

Manufacturing

März 2023 - Mai 2024
1 Jahr 3 Monaten

Datenexperte

Intralogistics

  • Beratung und Implementierung der AWS-Infrastruktur zur Unterstützung globaler Prozessabläufe im Bereich Transport & Logistik
  • Bereitstellung und Betrieb von Servern, Betriebssystem-Umgebungen und Datenbanken in AWS
  • Identifizierung und Präsentation von Optimierungspotenzialen aus kaufmännischer und technischer Sicht
  • Administration und Wartung der bereitgestellten Systeme
  • Entwicklung von Wartungs- und Überwachungskonzepten
  • Beratung von Entwicklungsprojekten zu Systemeinsatz, Konfiguration und Optimierung
  • Beratung zu Architekturen und Betriebskonzepten mit AWS Cloud
  • Schulung interner Mitarbeiter zu neuen AWS-Services und Arbeitsweisen

Dienste: AWS Glue, Redshift, EMR, SageMaker, Python

Jan. 2022 - Feb. 2023
1 Jahr 2 Monaten

Datenexperte

Logistics

  • Entwicklung und Umsetzung einer standardisierten Big-Data-Architektur für konzernweite Plattformdienste im Bereich Transport & Logistik auf Azure
  • Automatisierte Lösungen mittels Infrastruktur als Code (Terraform, Ansible)
  • Vorstellung und Diskussion von Teilprojektarchitekturen auf Azure
  • Implementierung von Echtzeit-Daten-Streaming mit Apache Kafka und Monitoring-Lösungen
  • Beratung zur Azure-Plattformstrategie und zu Referenzarchitekturen
  • Entwicklung von Mechanismen zur proaktiven Beseitigung von Schwachstellen in Azure- und Kubernetes-Clustern
  • Konzeption von Container-Orchestrierungsplattformen mit Kubernetes CI/CD
  • Erstellung von Benutzer- und Berechtigungskonzepten gemäß Konzernvorgaben
  • Verwaltung von Betriebsdiensten in einem agilen Team

Dienste: Azure Purview, Azure Synapse Analytics, Azure Data Factory, Azure Databricks, Terraform, GitLab Runner, Azure DevOps

Sept. 2021 - Jan. 2022
5 Monaten

Datenexperte

E-Commerce

  • Strategische Entwicklung und Migration von Analytics-Datenpipelines in eine Data Lakehouse-Architektur auf AWS
  • Verbesserung der Big Data Lake-Umgebung und Sicherstellung strenger Datenqualität und DSGVO-Konformität
  • Durchführung explorativer Analysen und Algorithmusentwicklung durch Datenbereitstellung und -aufbereitung (AWS Glue, Spark, Lambda)
  • Entwicklung von ETL-Jobs und Datenpipelines, um verbrauchsfertige Datenquellen bereitzustellen (AWS Glue, Redshift, Spark, PySpark)
  • Durchführung von Regressionstests und Qualitätsprüfungen in Datenpipelines und im Data Lake
  • Implementierung einer leistungsstarken Streaming-Datenverarbeitung mit Kinesis, Kafka und Lambda
  • Orchestrierung und Anbindung mehrerer Datenquellen
  • Automatisierung von Deployments mithilfe von DevOps-Best-Practices (CodeBuild, CodePipeline, GitHub Actions)
  • Aufbau der Infrastruktur mit IaC (AWS CDK)
  • Überwachung der Datenqualität, Compliance und Kosten

Dienste: AWS Glue, Kinesis, Kafka, Apache Spark, Data Catalog, S3, Athena, Redshift, Lambda, ECS, Step Functions

Apr. 2020 - Sept. 2021
1 Jahr 6 Monaten

Datenexperte

E-Commerce

  • Betreuung interner E-Commerce-Produktteams bei der Entwicklung, Implementierung und Wartung leistungsstarker Systeme zur Datenverarbeitung und -integration
  • Migration bestehender Datenservices, Pipelines und Assets in eine neue ereignisbasierte serverlose Architektur
  • Entwicklung und Ausführung von Lambda-Funktionen und PySpark-Jobs
  • Entwurf von Architektur und Integration mit Kafka für Echtzeit-Verarbeitung und -Analyse von Event-Daten
  • Implementierung von PySpark-Transformationen, Filterungen und Aggregationen
  • Sicherstellung einer effizienten und zuverlässigen Anbindung an Kafka, Konfiguration der Sicherheitseinstellungen und Integration mit anderen Komponenten
  • Etablierung umfangreicher Test- und Monitoring-Mechanismen
  • Bereitstellung eines leistungsstarken, skalierbaren Event-Systems, das datengetriebene Entscheidungsfindung ermöglicht

Dienste: AWS Glue, Apache Spark, Data Catalog, S3, Athena, Redshift, Lambda, ECS, Step Functions

Feb. 2019 - Apr. 2020
1 Jahr 3 Monaten

Datenexperte

Transport & Logistics

  • Integrierte Logistik-Datenströme mit Event Hub und Kafka mit PySpark Structured Streaming
  • Entwickelte und implementierte eine Pipeline zum Erfassen, Verarbeiten und Weiterleiten von Datenströmen
  • Verwendete PySpark Structured Streaming für eine effiziente Echtzeit-Datenverarbeitung
  • Konfigurierte und initialisierte PySpark-Streaming-Jobs und definierte die notwendigen Datenstrukturen
  • Führte umfassende Tests und Überwachung durch, um eine reibungslose Datenübertragung und hohe Datenqualität sicherzustellen
  • Ermöglichte eine robuste und effiziente Integration von Logistik-Datenströmen mit Event Hubs
  • Stellte die Echtzeit-Nutzung von Logistikdaten für Analysen und weitere Verarbeitung bereit

Dienste: Azure Synapse Analytics, Purview Data Catalog, Apache Spark, Event Hub, Structured Streaming, GraphFrame, Azure Storage v2, Power BI

Sept. 2018 - Feb. 2019
6 Monaten

Datenexperte

Transport & Logistics

  • Leitete die Entwicklung einer robusten Datenstrategie und eines Governance-Frameworks, um die Datenverarbeitungskapazitäten zu optimieren und zu verbessern
  • Erstellte eine ausgefeilte Datenmanagement-Plattform auf Databricks
  • Entwarf und implementierte eine effiziente Ingestion-Plattform für den Daten-Hub
  • Führte die Gestaltung und Einführung einer unternehmensweiten Datenstrategie im Einklang mit den Geschäftszielen
  • Entwickelte ein umfassendes Data-Governance-Framework zur Sicherstellung von Datenintegrität, Datenschutz und Compliance
  • Überwachte die Bereitstellung und Anpassung der Datenmanagement-Plattform auf Databricks
  • Verbesserte die Datenverarbeitung, Analyse und Berichtsfunktionen mit Power BI
  • Entwickelte einen robusten Daten-Hub mit fortschrittlichen Ingestion-Pipelines auf Basis von AWS EventBridge
  • Optimierte den Datenfluss aus verschiedenen Quellen zu zentralen Speichersystemen (Data Lake House auf Azure)
  • Arbeitete mit funktionsübergreifenden Teams zusammen, um die Datenmanagement-Plattform in die bestehende IT-Infrastruktur zu integrieren
  • Führte Schulungen und Workshops durch, um eine datengesteuerte Kultur zu fördern und die Datenkompetenz zu erhöhen

Dienste: Azure Databricks, Databricks Data Catalog, AWS EventBridge, Kinesis, Event Hub, Structured Streaming, Apache Spark

Datenexperte

Transport & Logistics

  • War technischer Leiter eines Teams von drei Offshore-Entwicklern und implementierte skalierbare, robuste Datenlösungen in Azure Databricks
  • Führte Databricks Live Tables für das Schema- und Tabellenmanagement ein
  • Implementierte Databricks Asset Bundle nach dem Infrastructure-as-Code-Ansatz
  • Entwarf und verfeinerte die Medallion-Datenarchitektur, um Datenverarbeitungs-Workflows zu optimieren
  • Arbeitete eng mit mehreren Fachbereichen zusammen, um sicherzustellen, dass die Datenlösungen deren spezifische Anforderungen erfüllten
  • Etablierte Coding-Standards und Best Practices für das Entwicklungsteam
  • Führte Code Reviews durch und gab technische Anleitung
  • Ermöglichte den Wissenstransfer und organisierte technische Trainings
  • Entwickelte skalierbare ETL-Pipelines in Azure Databricks
  • Erstellte optimierte Datenspeicherlösungen unter Berücksichtigung zukünftiger Skalierbarkeit
  • Etablierte einen vollständigen IaC-Workflow für Komponenten der Datenplattform
  • Integrierte Versionskontrolle und CI/CD für Databricks Asset Bundles
  • Automatisierte die Bereitstellung von Tabellenschemata, Jobs und Notebooks
  • Implementierte Strategien für die Promotion zwischen Entwicklungs-, Test- und Produktionsumgebung (Dev/Test/Prod)
  • Verwaltete Konfigurationen zur umgebungsübergreifenden Konsistenz

Dienste: Azure Databricks, Databricks Live Tables, Databricks Asset Bundle, Azure Data Factory, Delta Lake, Spark SQL, Azure Key Vault, Azure Storage, Power BI

Zusammenfassung

Big Data-Spezialist, Schwerpunkt: Big Data, Cloud-Architektur, Datenmanagement-Plattformen

Fähigkeiten

  • Spezialist Für Big-data-plattformen Mit Schwerpunkt Auf Amazon Web Services & Microsoft Azure

  • Etl-prozesse/-pipelines & Datenengineering

  • Architektur Von Datenmanagement-plattformen In Unternehmen

  • Aufbau Von Data Lakes & Data Lakehouses

  • Anwendungs-migrationen Mit Cloud-services

  • Beratung & Implementierung Von Automatisierungskonzepten, Insbesondere Devops

  • Integration Von Active Directory, Sicherheitskonzepten Und Compliance-anforderungen

  • Monitoring Und Logging

  • Sicher Im Umgang Mit Python, Sql, Typescript, Golang

  • Big-data-cloud-architektur (Aws & Microsoft Azure)

  • Datenengineering (Databricks, Synapse Analytics, Fabric, Apache Spark, Aws Glue, Athena, Redshift & Emr)

  • Infrastruktur Als Code (Terraform, Pulumi, Aws Cdk, Arm)

Sprachen

Deutsch
Muttersprache
Englisch
Verhandlungssicher
Polnisch
Verhandlungssicher

Zertifikate & Bescheinigungen

AWS Business Professional

AWS Certified Cloud Practitioner

AWS Certified Machine Learning – Specialty

AWS Certified Solutions Architect – Associate

AWS Technical Professional

Azure Solutions Architect Expert: AZ-300: Microsoft Azure Architect Technologies AZ-301: Microsoft Azure Architect Design

Databricks Certified Associate Developer For Apache Spark 3.0

HashiCorp Certified: Terraform Associate

Sie suchen Freelancer?Passende Kandidaten in Sekunden!
FRATCH GPT testen
Weitere Aktionen

Ähnliche Freelancer

Entdecken Sie andere Experten mit ähnlichen Qualifikationen und Erfahrungen.

Tan Pham
Tan Pham

DevOps Engineer im DevOps-Team

Profil ansehen
Serge Kalinin
Serge Kalinin

MLOps (Machine-Learning-Betrieb)

Profil ansehen
Umar Maqsud
Umar Maqsud

Senior KI-Architekt & Ingenieur

Profil ansehen
Kai Held
Kai Held

Backend-Python-Entwickler

Profil ansehen
Benito Exner
Benito Exner

Cloud-DevOps-Ingenieur

Profil ansehen
Qaiser Abbasi
Qaiser Abbasi

Freiberuflicher Lead DevOps Ingenieur

Profil ansehen
Max Ritter
Max Ritter

Cloud (AWS) | KI | DevOps | Daten

Profil ansehen
Michal Budzyn
Michal Budzyn

Senior Golang-Entwickler

Profil ansehen
Robert Raźniewski
Robert Raźniewski

Softwareentwickler

Profil ansehen
Niko Schmuck
Niko Schmuck

Entwicklungsarchitekt, Technischer Lead "gridlytics"

Profil ansehen
Yannick Schuchmann
Yannick Schuchmann

Freiberuflicher IT-Berater

Profil ansehen
Daniel Boesswetter
Daniel Boesswetter

Senior Cloud-Berater und Entwickler

Profil ansehen
Mahabub Akram
Mahabub Akram

Teamleiter – Engagement & Relevanz

Profil ansehen
Marcel Meyer
Marcel Meyer

Cloud-Architekt, Senior Solution Architekt, Senior Software Engineer

Profil ansehen
Stephan Fröde
Stephan Fröde

NLP/LLM-Chatbot

Profil ansehen
Fady Kuzman
Fady Kuzman

Senior Softwareentwickler / Tech Lead

Profil ansehen
Stephan Baier
Stephan Baier

Freiberuflicher Data Scientist

Profil ansehen
Michael Fecher
Michael Fecher

Freelancer, Solution-Architekt

Profil ansehen
Martin Musiol
Martin Musiol

Product Owner für AI-Lernplattform

Profil ansehen
Thomas Hoefkens
Thomas Hoefkens

Senior MLOps- und DevOps-Engineer

Profil ansehen
Stephan Sahm
Stephan Sahm

Senior Data/ML-Berater & Technischer Leiter

Profil ansehen
Marijn Scholtens
Marijn Scholtens

Senior Softwareentwickler

Profil ansehen
Matthias Isler
Matthias Isler

Teilzeit-CTO (Leitender Ingenieur / Technischer Architekt)

Profil ansehen
Manuel Pasieka
Manuel Pasieka

KI-Ingenieur

Profil ansehen
Stephan Rudolph
Stephan Rudolph

Architekt/Programmierer ICT, DevOps, Konzeption, Implementierung, Test, Dokumentation

Profil ansehen
Pappu Prasad
Pappu Prasad

Senior Cloud-Berater (AWS-Dienste und Beratung)

Profil ansehen
Domenik Jones
Domenik Jones

Python-Entwickler und Cloud-Migrationsberater

Profil ansehen
Kiriakos Krastillis
Kiriakos Krastillis

Tech Lead: API-Erfahrungsplattform

Profil ansehen
Prasad Tilloo
Prasad Tilloo

Solution-Architekt / Senior Manager – DTC E-Commerce-Plattform

Profil ansehen
Matthias Barfknecht
Matthias Barfknecht

Datenbankentwickler / Datenbankarchitekt

Profil ansehen