Stephan Sahm

Senior Data/ML-Berater & Technischer Leiter

München, Deutschland
Erfahrungen
Okt. 2021 - Bis heute
3 Jahren 10 Monaten
München, Deutschland

Senior Data/ML-Berater & Technischer Leiter

Jolin.io

  • Branchen: Marketing, Einzelhandel, Handel, Automation & Luftfahrt.
  • Mathematische Optimierung für Planung: Das Constraint-Optimierungsproblem wurde für ein flexibles Planungstool entwickelt, ebenso wie die Interaktion mit dem Frontend. Rolle: Softwareingenieur & Angewandter Mathematiker. Dauer: 1 Monat. Team: Team von 2, remote. Technologien: JuMP, julia, Pluto, svelte, javascript, typescript, jetbrains space, terraform, nomad.
  • Aufbau eines skalierbaren Data-Science-Compute-Clusters von Grund auf: Für das Produkt cloud.jolin.io wurde ein Data-Science-Compute-Cluster auf Kubernetes aufgebaut. Dazu gehörten Absicherung der Container-Runtimes, Autorisierung laufender Jobs, Autoscaling, Integration mit Versionskontrolle und ein Frontend zur Bereitstellung individueller skalierbarer Data-Science-Umgebungen. Rolle: Software-, Cloud- & Webingenieur. Dauer: 11 Monate. Team: Team von 1, vor Ort. Technologien: terraform, kubernetes, k8s ingress, k8s services, k8s rbac, k8s networking, k3s, etcd, s3, dns, certificates, julia, pluto, javascript, tailwind, astro, npm, parcel, preact, mui, jwt, aws sqs, aws rds, python, GitLab, GitHub.
  • Custom ChatGPT Service: Eine moderne Benutzeroberfläche wurde auf Basis generativer KI gebaut, inklusive Backend und Frontend. Rolle: KI- & Webingenieur. Dauer: 1 Monat. Team: Team von 2, remote. Technologien: python, poetry, langchain, tailwind, chatgpt api, flask, fastapi, tailwind.
  • Zentrales Data Lake Setup und Ingestion: Der Kunde hatte verschiedene Datenquellen für Kunden und Bestellungen, die für mehrere Use Cases zentralisiert werden sollten. Als Lösung wurde ein Big Data Lake auf AWS S3 und Apache Hudi aufgebaut und erste Daten-Ingestion-Pipelines implementiert. In Produktion. Rolle: Architekt & Data Engineer. Dauer: 9 Monate. Team: Team von 5, remote. Technologien: Infrastructure-as-Code, aws cdk, python, boto3, PySpark, AWS Glue, IAM, S3, ECS, Fargate, Lambda, Apache Hudi, DeltaLake, Databricks, GitHub, Jira, Miro.
  • PoC Julia-Migration von scikit-decide: Scikit-decide ist ein Open-Source-Tool von Airbus für Reinforcement Learning und Planung. Der Kern wurde von Python nach Julia übersetzt, um Machbarkeit zu zeigen und Performance-Verbesserungen zu benchmarken. Rolle: Softwareingenieur. Dauer: 1 Monat. Team: Team von 2, remote. Technologien: python, julia, GitHub.
Jan. 2019 - März 2021
2 Jahren 3 Monaten
München, Deutschland

Senior Data Science-Berater & Technischer Leiter

Machine Learning Reply

  • Branche: Automobil.
  • Technischer Leiter in mehreren Projekten und Leitung der Vorbereitung und Durchführung von Sales Meetings und Pitches.
  • Vorbereitung und Durchführung von Workshops und Kursen zu technischen Themen sowie Speaker auf Konferenzen und Webinaren.
  • Führung und Mitarbeit an RfPs, insbesondere Abschätzung von Umfang und Ressourcenbedarf.
  • Ideenfindung und konzeptionelle Planung datengetriebener Lösungen inkl. Aufsetzen von (Cloud-)Architekturen.
  • Umsetzung von ETL-Pipelines.
  • Konzeptionelle und theoretische Entwicklung von Machine-Learning-Modellen für gegebene Use Cases und Ziele.
  • Implementierung und Evaluierung von Machine-Learning-Modellen mit modernen, insbesondere Open-Source-Tools.
  • Produktionstaugliche Bereitstellung von Machine-Learning-Modellen für Batch- und Echtzeitprozesse, besonders für Big Data.
  • Durchführung von Recruiting-Interviews und Entscheidungen.
  • Unterstützung bei Usecase-Entwicklung auf Datalake: Beratung zu Architekturentscheidungen, Anpassung von Zugriffsrichtlinien und Debugging von Routing-Problemen. Ein spezieller GDPR-konformer Ingestion-Prozess wurde implementiert und eingeführt. In Produktion. Rolle: Lead Developer & Architekt. Dauer: 6 Monate. Team: Leitung, Team von 2, remote. Technologien: Infrastructure-as-Code, cloudformation, sceptre, python, boto3, PySpark, scala, Spark, AWS Glue, AWS Secrets, AWS IAM, S3, SNS, Kubernetes, AWS VPC, AWS Networking, GitHub, Jira.
  • 20 ETL-Pipelines auf AWS: Zum Ersatz eines CRM wurden etwa 20 ETL-Pipelines entwickelt, um bestehende Systeme mit neuen Datenflüssen zu ersetzen. Inklusive einer REST-API. In Produktion. Rolle: Lead Developer & Architekt. Dauer: 10 Monate. Team: Leitung, Team von 3, remote. Technologien: AWS Glue, PySpark, python, boto3, pandas, AWS SNS, AWS SQS, SQL, MySQL, PostgreSQL, MongoDB, AWS DocumentDB, Salesforce, AWS API Gateway, AWS Cognito, AWS Lambda, Infrastructure-as-Code, cloudformation, sceptre, GitHub, Jira.
  • Aufbau eines mandantenfähigen Datalake auf AWS: Implementierung einer Datalake-Plattform auf AWS von Grund auf, die in mehreren Ländern mit Infrastructure-as-Code bereitgestellt wird. Ein Schwerpunkt lag auf GDPR-Konformität. In Produktion. Rolle: Lead Developer & Architekt. Dauer: 5 Monate. Team: Leitung, Team von 2, remote mit einigen Vor-Ort-Workshops. Technologien: Infrastructure-as-Code, cloudformation, sceptre, python, boto3, PySpark, scala, Spark, AWS SageMaker, AWS Glue, AWS Secrets, AWS IAM, S3, SNS, Lambda, Kubernetes, EKS, Kafka, MSK, AWS VPC, AWS Transit Gateway, AWS Networking, AWS EC2, AWS Session Manager, AWS CloudWatch, AWS Sagemaker, GitHub, Jira.
Juli 2018 - Dez. 2019
1 Jahr 6 Monaten
München, Deutschland

Senior Data Science- & Engineering-Berater

Data Reply

  • Branchen: Loyalty Program, Telekommunikation und Kleidung/Accessoires.
  • Vereinheitlichung bestehender Zeitreihen-Analysen: Mehrere kundenspezifische Anomalie-Erkennungslösungen für Zeitreihen wurden refaktoriert und in ein generisches Framework zusammengeführt, das leicht auf neue Use Cases und Infrastrukturen (getestet auf AWS) ausgerollt werden kann. In Produktion. Rolle: Core Developer. Dauer: 9 Monate. Team: Team von 15, vor Ort, Scrum. Technologien: Python, PySpark, (PL)SQL, Hive, HBase, Oracle, Tableau, Nifi, Kubernetes, Docker, Azure, Gitlab.
  • Recommender System: Entwurf, Implementierung und Deployment eines Big-Data-Empfehlungssystems, das heute für Millionen täglicher Nutzer in Produktion läuft. Rolle: Data Science Developer. Dauer: 7 Monate. Team: Team von 1, vor Ort, wöchentliche Reviews. Technologien: On-Premise, R, Scala, SBT, Spark, Yarn, HDFS, Bitbucket, Jira, Grafana, Prometheus, Elastic Stack, Kibana.
  • Q Review: Custom Data Science Framework: Infrastruktur- und Code-Review eines Frameworks, das von einem Kunden entwickelt wurde. Rolle: Quality Assurance & Berater. Dauer: 2 Monate. Team: Team von 1, Mischung aus remote & vor Ort. Technologien: R, AWS.
  • Workshop: Entwicklung mit Apache Spark: Vier eintägige Workshops beim Kunden, zwei Einsteiger, zwei Fortgeschrittene. Inhalte: Performance-Optimierung, Monitoring, Schnittstellen Scala-R-Python, Best Practices. Rolle: Dozent. Dauer: 4× 1 Tag. Setting: Gruppe von 15 Personen, alleiniger Presenter. Technologien: R, Python, Spark.
Nov. 2016 - Juli 2018
1 Jahr 9 Monaten
München, Deutschland

Data Science-Berater

Data Reply

  • Branchen: Telekommunikation, Bonusprogramm und Media.
  • Fraud Detection: Entwurf, Entwicklung, Implementierung, Evaluierung und Deployment eines Anomalie-Erkennungssystems zur Aufdeckung bisher unbekannter Betrugsarten. Rolle: Data Science Developer. Dauer: 14 Monate. Team: Team von 1, vor Ort, Review alle drei Monate. Technologien: R, Scala, Spark, Yarn, Bitbucket, Jira, Elastic Stack, Kibana.
  • Callcenter- und Webcontent-Optimierung mit Speech Analytics: Ein 3-dimensionales Content-Detection-System wurde für geschriebene Konversationen aufgebaut. Aus reinem Text wurden kundenspezifische Produkt-Entitäten, Services und Probleme identifiziert. Rolle: Data Science Developer. Dauer: 6 Monate. Team: Team von 3, vor Ort, wöchentliche Reviews. Technologien: Python, NLP, spacy, GitHub, Elastic Stack, Kibana.
Sept. 2015 - Sept. 2016
1 Jahr 1 Monate
Nijmegen, Niederlande

Werkstudent

Trufflebit

  • Branche: Kommunale Versorger, mit Forecasts aller Art.
  • Web-Visualisierung: Aufbau eines Django-basierten Web-Dashboards mit Bokeh-basierter interaktiver Datenanalyse-Visualisierung. Rolle: Webentwickler. Dauer: 4 Monate. Team: Team von 1, remote, regelmäßiger Austausch mit CEO. Technologien: Python, Django, Bokeh, Gitlab.
  • Datenparsing: Entwicklung eines Parsers zur Extraktion von Zeitreihendaten aus kundenspezifischen Textdatenformaten. Rolle: Python-Entwickler. Dauer: 8 Monate. Team: Team von 1, remote, regelmäßiger Austausch mit CEO. Technologien: Python, PyParsing, Cython, Gitlab.
Apr. 2013 - März 2014
1 Jahr
Osnabrück, Deutschland

Computer Vision & Objekterkennung

University of Osnabrück

  • Studienprojekt: Bau eines autonomen Roboters.
  • Programmierung eines Roboters mit Rädern und Armen, um ein Muffin von der Rezeption im ersten Stock abzuholen, den Aufzug zu nehmen und es ins Robotiklabor zu bringen.
  • Dauer: 12 Monate.
  • Team: Team von 14, vor Ort, Scrum.
  • Technologien: ROS, Gazebo, Python, C++, OpenCV, Git.
Zusammenfassung

Stephan Sahm ist ein Full-Stack Lead Data Science-Berater und Cloud-Architekt, spezialisiert auf Big Data, hohe Performance, probabilistisches Rechnen und wissenschaftliches Machine Learning.

Stephan Sahm bringt über 10 Jahre Erfahrung in Data Science, über 7 Jahre in Beratung und 2 Jahre in Führung kleiner Teams mit. Seit 2017 arbeitet er mit Big-Data-Systemen, seit 2018 in Clouds. Stephan Sahm hat Cloud-basierte Datenlösungen für verschiedene Unternehmen mit AWS, Azure und Kubernetes entworfen. Er hat mehrere Machine-Learning-Anwendungen produktiv umgesetzt, dabei Python, R, Scala und Julia eingesetzt.

Sprachen
Deutsch
Muttersprache
Englisch
Verhandlungssicher
Spanisch
Verhandlungssicher
Niederländisch
Grundkenntnisse
Ausbildung
Sept. 2014 - Sept. 2016

Radboud University

Angewandte Stochastik, Wahrscheinlichkeitstheorie und Bayessche Statistik · Mathematik · Nijmegen, Niederlande · sehr gut

Okt. 2013 - Aug. 2015

University of Osnabrück

Kognitive Wissenschaft, Neurowissenschaftliche Modellierung, symbolische KI, Robotik und Philosophie des Geistes · Kognitive Wissenschaft · Osnabrück, Deutschland · hervorragend

Okt. 2011 - Dez. 2014

University of Osnabrück

Mathematik und Informatik · Osnabrück, Deutschland · hervorragend

...und 1 Weitere
Zertifikate & Bescheinigungen

AWS Certified Architect Professional

AWS

AWS Certified Architect Associate

AWS

AWS Certified Machine Learning Speciality

AWS

AWS Certified Big Data Speciality

AWS

AWS Certified Cloud Practitioneer

AWS

Cloudera Certified CCA Spark and Hadoop Developer

Cloudera

Professional Scrum Master™ I (PSM I)

Sie suchen Freelancer?Passende Kandidaten in Sekunden!
FRATCH GPT testen
Weitere Aktionen