Daniel Pape
Berufliche Entwicklung
Erfahrungen
Berufliche Entwicklung
Erlangte die AWS Certified Cloud Practitioner-Zertifizierung.
Beherrschte Rust durch Selbststudium mit Büchern, Online-Kursen und Beiträgen zu Open Source.
Entwickelte eine serverlose Webanwendung mit AWS (RDS, Lambda, Polly, Amplify) und TypeScript/React/D3; verwaltete die Infrastruktur mit CDK.
Hielt mich kontinuierlich über Branchentrends auf dem Laufenden durch Selbststudium, Webinare und Workshops und erkundete Data Mesh und FastAPI.
Dateningenieur (Freiberuflich) – Clustering von POI-Daten
Refaktorisierte die Airflow-Pipeline und den Bibliothekscode für Clustering und Preprocessing. Verbesserte Dokumentation und Codequalität durch Defensive-Programming-Techniken.
Entwarf und implementierte eine neue Azure-Cloud-Lösung mit Databricks, integrierte Daten aus AWS S3 und Azure Blob Storage und entwickelte Bibliothekscode sowie Spark-Jobs für geospatiales Clustering.
Erstellte einen Python-Wrapper für eine Open-Source-Scala-Bibliothek für Graphenclustering, um eine Python-Integration zu ermöglichen.
Arbeitete mit Entwicklern und dem Testteam zusammen, um Fehler zu beseitigen und die Testabdeckung für einen Azure Functions Service, der Fahrzeugsignalsströme mit Redis verarbeitet, zu erhöhen.
Trug zu Code-Reviews, PI-Planung, Tests und Dokumentation bei.
Dateningenieur (Freiberuflich) – Daten- und Scorebereitstellung für CRM
Entwarf und baute ETL-Pipelines für Vertrags- und Nutzungsdaten, um Features für Machine-Learning-Modelle zu generieren.
Implementierte Machine-Learning-Pipelines für Churn-Scoring, Next-Best-Action und die Vorhersage des Kundenverhaltens in AWS (S3, Kinesis, Athena, EMR, Glue).
Mitwirkte an der Überführung von von Data Scientists entwickelten Modellen von der Experimentierphase in die Produktion.
Automatisierte Datenexporte und die Übertragung von Scores in den zentralen Event-Bus.
Etablierte Datenqualitätsüberwachung mit Great Expectations.
Unterstützte bei der MLOps-Spike-Bewertung durch Recherche zur Integration eines Feature Stores und Evaluierung von Workflows und Repositories.
Dateningenieur (Freiberuflich) – Erweiterung des Big Data Lake für Echtzeit-Kampagnenmanagement
Sammelte und analysierte Anforderungen von Stakeholdern zur Extraktion von Daten aus einer externen API in den AWS Big Data Lake und Amazon Redshift.
Klärte NLP- und API-Designfragen mit Kontakten der SaaS-Plattform und Stakeholdern.
Erweiterte die Dokumentation in Confluence.
Erstellte ein logisches Datenmodell und ein konzeptionelles ETL-Pipeline-Design.
Entwickelte einen Proof of Concept für das Streaming von Daten von Kafka nach S3 unter Verwendung von Databricks Delta Lake.
Softwareentwickler
Freiberuflich
- Erstellte individuelle Lösungen mit Fokus auf Daten- und Machine-Learning-Engineering.
Softwareentwickler (Freelance) – Analytische Schnittstelle für Cloud Data Lake
Verwendete Apache NiFi für einen Proof of Concept zur Extraktion aus Quellsystemen nach S3 und Kinesis.
Entwickelte Scala- und Spark-Services für ETL verschiedener Quellsysteme in AWS.
Implementierte Fakten- und Dimensionstabellentransformationen nach Kimball.
Erstellte ETL-Pipelines mit Spark und Scala basierend auf Analysespezifikationen und Tableau Prep Flows.
Entwickelte und plante Spark-Jobs auf EMR über Apache Airflow.
Betreute Kollegen in Scala und Spark durch Pair Programming.
Baute ein eigenes Scala-Mini-Framework für typsichere Spark DataFrame-Transformationen und Tests.
Integrierte und ersetzte Datenquellen, entwickelte Integrations- und Unit-Tests, führte Debugging und Ausführungstests durch.
Dateningenieur
codecentric AG
Arbeitete in einer Geschäftseinheit, die sich auf Data Science und Machine Learning konzentrierte, und trug zu Kunden- und internen Projekten bei.
Technologien: Scala, Kotlin, Python, SQL, Spark, Kafka, Airflow, AWS, Kubernetes, Docker.
Scala-Entwickler
DIGITEC GmbH
- Implementierte Funktionen für die kommende Version der Flaggschiff-Desktop-Software-Suite des Unternehmens als Teil eines Scrum-Teams.
Zusammenfassung
Softwareingenieur mit über 5 Jahren Erfahrung in der Entwicklung datengetriebener Bildungssoftwarelösungen. Ermöglichte Unternehmen die Nutzung ihrer Daten durch die Entwicklung von Machine-Learning-Services zur Optimierung der Werbeeinnahmen und den Aufbau eines Data Lake, der verschiedene Datenquellen integriert, um eine unternehmensweite 360-Grad-Sicht auf die wichtigsten Daten in der Cloud zu schaffen und umsetzbare Erkenntnisse zu liefern.
Fähigkeiten
- Scala
- Kotlin
- Python
- Sql
- Spark
- Kafka
- Airflow
- Aws
- Kubernetes
- Docker
Sprachen
Ausbildung
Georg-August-Universität Göttingen
Promotion · Mathematik · Göttingen, Deutschland
Universität Wuppertal
Diplom · Mathematik und Informatik (Nebenfach) · Wuppertal, Deutschland
Zertifikate & Bescheinigungen
Kafka-Lösungen erstellen
Confluent
Zertifizierter AWS Cloud Practitioner
AWS
Amazon Detective Intensivkurs
A Cloud Guru
Angewandte KI mit Deep Learning
Coursera
BerkeleyX – CS190.1x: Skalierbares Machine Learning
EdX
Erstellung von Machine-Learning-Pipelines auf AWS
A Cloud Guru
Clusteranalyse im Data Mining
Coursera
Data-Streaming-Nanodegree
Udacity
Databricks Lakehouse-Grundlagen
Databricks Academy
Bereitstellen von Anwendungen mit AWS CDK
A Cloud Guru
Entwicklung von Datenprodukten
Coursera
Explorative Datenanalyse
Coursera
Grundlagen der funktionalen Programmierung in Scala
Coursera
Einführung in Google Kubernetes Engine
Coursera
Einführung in Big Data mit Apache Spark
EdX
Kotlin für Java-Entwickler
Coursera
Musterdetektion im Data Mining
Coursera
Praktische ereignisgesteuerte Sicherheit mit AWS
A Cloud Guru
R-Programmierung
Coursera
Statistische Inferenz
Coursera
Grundlagen von Terraform
Coursera
Text Mining und Analytik
Coursera
Ähnliche Freelancer
Entdecken Sie andere Experten mit ähnlichen Qualifikationen und Erfahrungen.