Stephan S.
Senior Data/ML-Berater & Technischer Leiter
Erfahrungen
Senior Data/ML-Berater & Technischer Leiter
Jolin.io
Rolle: Software-Ingenieur & Angewandter Mathematiker (Mathematische Optimierung für Terminplanung; Dauer: 1 Monat; Teamzusammenstellung: Team von 2, remote; Technologien: JuMP, Julia, Pluto, Svelte, JavaScript, TypeScript, JetBrains Space, Terraform, Nomad)
Rolle: Software-, Cloud- & Web-Ingenieur (Aufbau eines skalierbaren Data-Science-Rechenclusters von Grund auf; Dauer: 11 Monate; Teamzusammenstellung: Team von 1, vor Ort; Technologien: Terraform, Kubernetes, k8s ingress, k8s services, k8s RBAC, k8s networking, k3s, etcd, S3, DNS, Zertifikate, Julia, Pluto, JavaScript, Tailwind, Astro, npm, Parcel, Preact, MUI, JWT, AWS SQS, AWS RDS, Python, GitLab, GitHub)
Rolle: KI- & Web-Ingenieur (Individueller ChatGPT-Dienst; Dauer: 1 Monat; Teamzusammenstellung: Team von 2, remote; Technologien: Python, Poetry, LangChain, Tailwind, ChatGPT API, Flask, FastAPI)
Rolle: Architekt & Dateningenieur (Einrichtung und Befüllung eines zentralen Data Lakes; Dauer: 9 Monate; Teamzusammenstellung: Team von 5, remote; Technologien: Infrastructure-as-Code, AWS CDK, Python, Boto3, PySpark, AWS Glue, IAM, S3, ECS, Fargate, Lambda, Apache Hudi, DeltaLake, Databricks, GitHub, Jira, Miro)
Rolle: Software-Ingenieur (PoC zur Migration von scikit-decide nach Julia; Dauer: 1 Monat; Teamzusammenstellung: Team von 2, remote; Technologien: Python, Julia, GitHub)
Organisator
Meetup Julia User Group Munich
Veranstaltungen & Speaker organisieren
Einführungskurse zu Julia-Themen & Deep-Dive-Sessions geben
Senior Data-Science-Berater & Technischer Leiter
Machine Learning Reply
Rolle: Leitender Entwickler & Architekt (Unterstützung bei der Use-Case-Entwicklung auf dem Data Lake; Dauer: 6 Monate; Teamzusammenstellung: Team Lead, Team von 2, remote; Technologien: Infrastructure-as-Code, CloudFormation, Sceptre, Python, Boto3, PySpark, Scala, Spark, AWS Glue, AWS Secrets, AWS IAM, S3, SNS, Kubernetes, AWS VPC, AWS Networking, GitHub, Jira)
Rolle: Leitender Entwickler & Architekt (20 ETL-Pipelines auf AWS; Dauer: 10 Monate; Teamzusammenstellung: Team Lead, Team von 3, remote; Technologien: AWS Glue, PySpark, Python, Boto3, Pandas, AWS SNS, AWS SQS, SQL, MySQL, PostgreSQL, MongoDB, AWS DocumentDB, Salesforce, AWS API Gateway, AWS Cognito, AWS Lambda, Infrastructure-as-Code, CloudFormation, Sceptre, GitHub, Jira)
Rolle: Leitender Entwickler & Architekt (Aufbau eines mandantenfähigen Data Lakes auf AWS; Dauer: 5 Monate; Teamzusammenstellung: Team Lead, Team von 2, remote mit einigen Vor-Ort-Workshops; Technologien: Infrastructure-as-Code, CloudFormation, Sceptre, Python, Boto3, PySpark, Scala, Spark, AWS SageMaker, AWS Glue, AWS Secrets, AWS IAM, S3, SNS, Lambda, Kubernetes, EKS, Kafka, MSK, AWS VPC, AWS Transit Gateway, AWS Networking, AWS EC2, AWS Session Manager, AWS CloudWatch, AWS SageMaker, GitHub, Jira)
Senior Data-Science- & Engineering-Berater
Data Reply
Rolle: Core-Entwickler (Vereinheitlichung bestehender Zeitreihenanalysen; Dauer: 9 Monate; Teamzusammenstellung: Team von 15, vor Ort, Scrum; Technologien: Python, PySpark, (PL)SQL, Hive, HBase, Oracle, Tableau, NiFi, Kubernetes, Docker, Azure, GitLab)
Rolle: Data-Science-Entwickler (Empfehlungssystem; Dauer: 7 Monate; Teamzusammenstellung: Team von 1, vor Ort, wöchentliche Reviews; Technologien: R, Scala, SBT, Spark, Yarn, HDFS, Bitbucket, Jira, Grafana, Prometheus, Elastic Stack, Kibana)
Rolle: Qualitätssicherung & Berater (Überprüfung eines kundenspezifischen Data-Science-Frameworks; Dauer: 2 Monate; Teamzusammenstellung: Team von 1, teils remote, teils vor Ort; Technologien: R, AWS)
Rolle: Dozent (Workshop: Entwicklung mit Apache Spark; Dauer: vier eintägige Workshops; Setting: Gruppe von 15 Personen, alleiniger Vortragender; Technologien: R, Python, Spark)
Data-Science-Berater
Data Reply
Rolle: Data-Science-Entwickler (Betrugserkennung; Dauer: 14 Monate; Teamzusammenstellung: Team von 1, vor Ort, Reviews alle drei Monate; Technologien: R, Scala, Spark, Yarn, Bitbucket, Jira, Elastic Stack, Kibana)
Rolle: Data-Science-Entwickler (Optimierung von Callcenter und Webinhalten mittels Sprachanalyse; Dauer: 6 Monate; Teamzusammenstellung: Team von 3, vor Ort, wöchentliche Reviews; Technologien: Python, NLP, spaCy, GitHub, Elastic Stack, Kibana)
Werkstudent
Trufflebit
Rolle: Webentwickler (Webvisualisierung; Dauer: 4 Monate; Teamgröße: 1 Person, remote, regelmäßiger Austausch mit dem CEO; Technologien: Python, Django, Bokeh, GitLab)
Rolle: Python-Entwickler (Datenparsing; Dauer: 8 Monate; Teamgröße: 1 Person, remote, regelmäßiger Austausch mit dem CEO; Technologien: Python, PyParsing, Cython, GitLab)
Computer Vision & Objekterkennung (Studienprojekt)
Universität Osnabrück
- Programmierte einen Roboter mit Rädern und Armen, um einen Muffin vom Empfangspersonal im Erdgeschoss abzuholen, den Aufzug zu nehmen und ihn ins Robotiklabor zu bringen; Teamgröße: 14, vor Ort, Scrum; Technologien: ROS, Gazebo, Python, C++, OpenCV, Git
Zusammenfassung
Stephan Sahm ist ein Full-Stack-Lead-Data-Science-Berater und Cloud-Architekt, spezialisiert auf Big Data, Hochleistungs-, probabilistisches Rechnen und wissenschaftliches maschinelles Lernen.
Stephan Sahm bringt über 10 Jahre Erfahrung in Data Science, über 7 Jahre in der Beratung und 2 Jahre in der Führung kleiner Teams mit. Er hat einen hervorragenden Master in Kognitionswissenschaft, einen Master in Statistik und einen Bachelor in Informatik. Seit 2017 arbeitet er mit Big-Data-Systemen, seit 2018 mit Clouds. Stephan Sahm entwarf Cloud-basierte Datenlösungen für verschiedene Unternehmen mit AWS, Azure und Kubernetes. Er hat mehrere Machine-Learning-Anwendungsfälle in Produktion umgesetzt, dabei Python, R, Scala und Julia verwendet.
Fähigkeiten
Führung
Visionär
Teamplayer
Selbstreflexion
Fürsorglichkeit
Hohe Qualitätsansprüche
Sauberer Code
Saubere Einrichtung
Saubere Infrastruktur Nach Dem Stand Der Technik
Julia
Python
R
Matlab
Scala
Spark
Haskell
Nix
Ros
Aws
Cloud
Devops
Ci/cd
Automatisierung
Statistik
Ki
Deep Learning
Expertensysteme
Zeitreihen
Maschinelles Lernen
Probabilistische Modellierung
Optimierung
Empfehlungssysteme
Betrugs- & Anomalieerkennung
Nlp
Planung
Bildverarbeitung
Julia
Python
R
Matlab
Java
C
Nix
Bash
Zsh
Scala
Cdk
Sagemaker
Glue
Emr
Lambda
Ec2
S3
Ecs
Fargate
Eks
Msk
Iam
Vpc
Api Gateway
System Manager
Azure Machine Learning
Azure Data Lake Storage
Terraform
Active Directory
Web App Service
Spark
Deltalake
Hudi
Databricks
Kubernetes
Kafka
Flink
Postgresql
Mongodb
Hive
Elasticsearch
Apache Nifi
Datalku
Datarobots
Tableau
Kibana
Gitlab Cicd
Github Actions
Dvc
Docker
Kubernetes
Nomad
Kubeflow
Airflow
Mlflow
Prometheus
Grafana
Elastic Stack
Jump.jl
Flux.jl
Pytorch
Tensorflow
Keras
Tfp
Stan
Pymc3
Turing.jl
Pandas
Numpy
Scipy
Yellowbrick
D3
Bokeh
Plotly
Dash
Git
Bash
Vim
Tmux
Make
Ssh
Intellij
Pycharm
Rstudio
Jupyter
Pluto
Atom
Vscode
Html
Css
Tailwind
Javascript
Typescript
React
Preact
Mui
Svelte
Astro
Vite
Parcel
Miro
Jira
Github
Gitlab
Jetbrains Space
Kanban
Scrum
Sprachen
Ausbildung
Radboud University
M.Sc. Angewandte Stochastik · Angewandte Stochastik · Nijmegen, Niederlande · sehr gut
University of Osnabrück
M.Sc. Kognitionswissenschaft · Kognitionswissenschaft · Osnabrück, Deutschland · hervorragend
University of Osnabrück
B.Sc. Mathematik/Informatik · Mathematik/Informatik · Osnabrück, Deutschland · hervorragend
Zertifikate & Bescheinigungen
AWS Certified Architect Professional
AWS Certified Architect Associate
AWS Certified Machine Learning Speciality
AWS Certified Big Data Speciality
AWS Certified Cloud Practitioneer
Cloudera Certified CCA Spark and Hadoop Developer
Professional Scrum Master™ I (PSM I)
Ähnliche Freelancer
Entdecken Sie andere Experten mit ähnlichen Qualifikationen und Erfahrungen.