Jens Daube

Senior Data Scientist

Jens Daube
Frankfurt, Germany

Erfahrungen

Juni 2023 - Bis heute
1 Jahr 9 Monaten
Frankfurt, Germany

Product Owner & Senior Data Scientist

Legal Tech

Produktleitung: Leitung eines internationalen sechsköpfigen Entwickler-Teams im Scrum-Umfeld

Strategische Produktentwicklung: Festlegung der strategischen Ziele für das Projekt in Abstimmung mit den Stakeholdern und dem Entwicklungsteam

Prompt Engineering: Prompt Engineering für Sprachmodelle zur Verbesserung der Genauigkeit und Relevanz der generierten Antworten

LangChain Komponenten: Implementierung von LangChain Komponenten eines RAG Chatbots zur Beantwortung rechtlicher Fragen

Technologien: GPT-4, LangChain, Python (Pandas, sklearn, streamlit), Docker, GitLab, ChromaDB

Mai 2023 - Apr. 2024
1 Jahr
Frankfurt, Germany

Senior Data Scientist

Zentralbank

Enterprise-Search Lösung: Entwicklung einer skalierbaren und leistungsfähigen Enterprise-Search Lösung

Entwicklung eines RAGs: Implementierung eines Retrieval-Augmented Generation (RAG) Modells, um valide und kontextbezogene Antworten auf Benutzeranfragen zu Dokumenten zu liefern

Messaging Queues: Implementierung und Verwaltung von Messaging Queues zur Gewährleistung der zuverlässigen und skalierbaren Datenverarbeitung und -übertragung zwischen verschiedenen Systemkomponenten

API-Entwicklung: Erstellung von RESTful APIs zur Bereitstellung der Suchfunktionalitäten und Integration der Enterprise-Search Lösung in bestehende Anwendungen und Systeme, einschließlich Sicherheits- und Authentifizierungsmechanismen

Technologien: ElasticSearch, Kibana, LLaMA, SQL, FastAPI, Docker, Python (Pandas, sklearn, PyTorch), HuggingFace

Sept. 2022 - Apr. 2023
8 Monaten
GG

Senior Data Scientist

Finanzaufsichtsbehörde

Entwicklung eines Risikomodells: Entwicklung und Implementierung eines Frühwarnsystems basierend auf strukturierten und unstrukturierten Daten zur Überwachung des Ausfallrisikos von Fonds

Entwicklung eines Chatbots: Entwicklung eines Chatbots für die Aufsichtsbehörde auf der Grundlage von GPT-4 zur Beantwortung von Fragen zu Jahres- und Quartalsberichten

Implementierung von CI/CD-Pipelines: Implementierung und Konfiguration automatisierter CI/CD-Pipelines zur Automatisierung von Build-, Test- und Deploy-Prozessen

Stakeholder-Management: Enge Zusammenarbeit mit Fachexperten, um die Anforderungen an das Frühwarnsystem zu verstehen

Technologien: GPT-4, LangChain, Python (Pandas, NumPy, PyTorch, sklearn), SQL, GitLab, Docker, Kubernetes, Apache Spark, ChromaDB

Dez. 2021 - Aug. 2022
9 Monaten
Berlin, Germany

Senior Data Scientist

Öffentliche Behörde

Projektleitung: Leitung des Projekts, regelmäßige Abstimmungen mit dem Kunden und Sicherstellung der Erfüllung aller Anforderungen und Erwartungen

Modellentwicklung: Entwicklung und Training von Modellen zur Analyse von Wirtschafts- und Finanzmarktberichten

Performance-Optimierung: Optimierung der Modellleistung durch Hyperparameter-Tuning und Implementierung von Feature Engineering und Regularisierung

Stakeholder-Management: Zusammenarbeit mit Experten zur Validierung der Modellergebnisse und zur Anpassung an spezifische Anforderungen der Behörde

Technologien: Python (Pandas, Numpy, SpaCy, sklearn, Keras), HuggingFace, GitLab, Docker

März 2021 - Nov. 2021
9 Monaten
Salzburg, Austria

Senior Data Scientist

Getränkehersteller

Analyse der Verkaufsdaten: Tiefgehende Untersuchung historischer Verkaufsdaten, um Muster, Trends und saisonale Schwankungen zu identifizieren, die die Absatzzahlen beeinflussen könnten

Implementierung von Zeitreihenanalysen: Nutzung von Zeitreihenanalyse-Techniken wie ARIMA, Exponential Smoothing sowie fortschrittlicher ML-Modelle wie Random Forests oder LSTM zur Verbesserung der Vorhersagegenauigkeit der Absatzzahlen

Integration externer Datenquellen: Einbindung zusätzlicher Daten wie Wetterdaten oder Marketingkampagnen, um die Genauigkeit der Absatzprognosen weiter zu verbessern

Risiko- und Chancenanalyse: Durchführung von Sensitivitätsanalysen und Szenario-Modellierungen, um potenzielle Risiken und Chancen frühzeitig zu identifizieren und entsprechende Strategien zu entwickeln

Technologien: Python (Pandas, NumPy, seaborn, sklearn), Azure (Databricks, Data Lake, Functions, Machine Learning), SQL, GitLab

Mai 2020 - Feb. 2021
10 Monaten
Zürich, Switzerland

Senior Machine Learning Engineer

Universalbank

Implementierung der Preprocessing-Pipeline: Entwicklung und Implementierung von Preprocessing-Pipelines zur Standardisierung und Strukturierung der Kommunikationsdaten von Tradern

Erstellung von Word-Embeddings: Nutzung des vortrainierten FinBERT-Modells zur Generierung von Word-Embeddings aus finanzbezogenen Texten

Modellentwicklung: Entwicklung und Implementierung von Modellen zur Netzwerkanalyse, Anomalieerkennung und zum Clustering

Automatisierung von Workflows: Entwicklung und Automatisierung von End-to-End-Workflows für das Training, die Validierung und das Deployment der Modelle

Technologien: Python (SpaCy, sklearn, TensorFlow), Hugging Face, SQL, ElasticSearch, Docker, Kubernetes, GitHub, Jenkins, MLflow

Okt. 2019 - Apr. 2020
7 Monaten
Utrecht, Netherlands

Data Scientist

Behörde für Verkehrsdaten

Konfiguration der Cloud-Infrastruktur: Entwurf und Implementierung von Cloud-basierten Systemarchitekturen mit Azure

Konfiguration einer MLOps-Plattform: Einrichtung und Konfiguration von Kubeflow und MLflow zur Verwaltung und Automatisierung von Machine Learning Workflows

Entwicklung eines Modells zur Anomalieerkennung: Erstellung und Training von Machine Learning Modellen zur Identifikation ungewöhnlicher Verkehrsmuster und -situationen

Implementierung von Tests: Entwicklung und Durchführung von Tests zur Sicherstellung der Funktionalität, Zuverlässigkeit und Sicherheit der entwickelten Lösungen

Technologien: Python (TensorFlow, PyTorch, Pandas, NumPy), Azure (Kubernetes Service, DevOps, Storage), Kubeflow, MLflow, Helm

März 2019 - Sept. 2019
7 Monaten
Stuttgart, Germany

Machine Learning Engineer

Automobilkonzern

Datenaufbereitung und -bereinigung: Sammlung und Bereinigung historischer Verkaufsdaten sowie externer Faktoren wie Markttrends, Wirtschaftsdaten und saisonale Einflüsse

Feature Engineering: Identifikation und Erstellung relevanter Features zur Verbesserung der Vorhersagegenauigkeit der Modelle

Modellentwicklung: Entwicklung und Training verschiedener Machine Learning Modelle zur Vorhersage der Absatzzahlen, einschließlich spezifischer Forecasting-Modelle wie Prophet und ARIMA

Explainable AI: Implementierung eines Explainable AI Moduls basierend auf SHAP zur Verbesserung der Transparenz und Nachvollziehbarkeit der Modellergebnisse

Technologien: Python (Prophet, statsmodels, Keras, Pandas, NumPy, SHAP), SQL, GitLab

Aug. 2018 - Feb. 2019
7 Monaten
Düsseldorf, Germany

Data Scientist

Asset Manager

Design und Implementierung der Microservices: Entwicklung dockerisierter Microservices, einschließlich APIs und Testspezifikation zur Erkennung von Named Entities, unter Verwendung und Anpassung von vor- und nachtrainierten KI-Modellen

Implementierung von Sentiment-Analyse-Modellen: Entwicklung und Implementierung von Modellen zur Berechnung eines Scores für das Sentiment von Fondsberichten

Feature Engineering und -Auswahl: Identifikation und Erstellung relevanter Merkmale (Features) aus den Textdaten, die zur Verbesserung der Modellleistung beitragen, sowie Auswahl der wichtigsten Features für das Training der Modelle

Hyperparameter-Tuning: Optimierung der Hyperparameter durch systematische Suche bzw. durch fortgeschrittene Methoden wie Bayesian Optimization

Technologien: Python (Pandas, Numpy, NLTK, SpaCy, Tensorflow), Flask, Azure (Databricks, Cognitive Services, Machine Learning, DevOps)

Jan. 2018 - Juli 2018
7 Monaten
Vienna, Austria

Data Scientist

Universalbank

Entwicklung des ETL-Workflows: Erstellung eines Workflows zur Verarbeitung von Dokumentendaten, einschließlich nahtloser Integration von OCR- und NLP-Modulen

Implementierung der OCR-Microservices: Implementierung von OCR-Algorithmen zur automatischen Texterkennung in verschiedenen Bilddateiformaten (tif, jpg, png), inkl. Containerisierung der OCR-Microservices mittels Docker

Implementierung der NLP-Microservices: Entwicklung und Implementierung von NLP-Modellen zur Informationsextraktion aus den erkannten Texten

Feature Engineering: Extraktion relevanter Merkmale aus den OCR- und NLP-Daten, die zur Verbesserung der Modellleistung und zur besseren Informationsextraktion beitragen können

Technologien: Python (Tesseract, SpaCy, NLTK, Pandas, NumPy), Docker, Kubernetes, GitLab

Juni 2017 - Dez. 2017
7 Monaten
Berlin, Germany

Data Analyst

Kreditbank

Modellentwicklung und Monte-Carlo-Simulationen: Entwicklung und Validierung von Kreditrisikomodellen in Python, inkl. Implementierung von Monte-Carlo-Simulationen zur Analyse verschiedener Risikoszenarien

Datenmanagement und -analyse: Verwendung von SQL zur Verwaltung und Abfrage großer Datenmengen, gefolgt von Datenaufbereitung, Bereinigung und explorativer Datenanalyse in Python zur Identifizierung wichtiger Merkmale und Muster

Validierung und Feinabstimmung: Validierung der Modelle durch Backtesting und historische Datenanalyse, gefolgt von Feinabstimmung der Modelle basierend auf den Validierungsergebnissen

Integration und Deployment: Integration der entwickelten Modelle in das IT-System der Bank und Bereitstellung für den produktiven Einsatz, inklusive kontinuierlicher Überwachung und Optimierung

Technologien: Microsoft SQL, Python (Pandas, NumPy, SciPy, sklearn, Seaborn), GitLab, Docker

Zusammenfassung

Erfahrener Data Scientist und Machine Learning Engineer mit über sechs Jahren Projekterfahrung in den Bereichen Data Science, Data Analytics, Machine Learning und Datenvisualisierung. Spezialisiert auf die Entwicklung und Implementierung fortschrittlicher Machine Learning Modelle und datengetriebener Lösungen in verschiedenen Branchen, einschließlich Legal Tech, Finanzwesen und Automobilindustrie. Versiert in der Leitung internationaler Teams und der Umsetzung strategischer Projekte im SCRUM-Umfeld. Schlüsselqualifikationen: - Langjährige Erfahrung in der Modellierung und Analyse großer Datensätze. - Expertise in der Entwicklung von Machine Learning Modellen mit Python, R, und JavaScript. - Fundierte Kenntnisse in der Implementierung von Datenbanklösungen und Big Data-Technologien. - Erfahrung in der Erstellung interaktiver Dashboards und Datenvisualisierungen mit R Shiny, PowerBI und Tableau. - Kompetenzen in Cloud-Technologien (Azure, AWS, Snowflake) und Container-Technologien (Docker, Kubernetes). - Nachgewiesene Fähigkeit zur Führung und Schulung von Teams, um effektive und maßgeschneiderte Lösungen zu entwickeln. Technologien: - Programmiersprachen: Python, R, SQL, JavaScript, Bash, MS Powershell, Matlab, Java, PHP. - Frameworks und Tools: sklearn, PyTorch, TensorFlow, HuggingFace, OpenAI, LangChain, Vue.js, React.js, FastAPI, Flask, Django. - Datenbanken: MS SQL, MySQL, PostgreSQL, ElasticSearch, MongoDB, Pinecone, ChromaDB. - Big Data: Apache Hadoop, Hive, Apache Spark, Apache Kafka. - DevOps: Git, Gitlab, AzureDevOps, SVN, Jira, Jenkins, Terraform, Ansible, Bitbucket. Meine Berufserfahrung umfasst die Leitung von Entwicklerteams, die Entwicklung von Risiko- und Frühwarnmodellen sowie die Implementierung von AI-gestützten Lösungen zur Anomalieerkennung und Datenüberwachung. Als Co-Founder eines Legal-Tech Startups setze ich mich für den verbesserten Zugang zum Recht und die Förderung von Pro-Bono-Arbeit ein.

Sprachen

Deutsch
Muttersprache
Englisch
Verhandlungssicher

Ausbildung

Feb. 2018 - Nov. 2020

Universität Mannheim

Master · Master in Data Science · Mannheim, Germany · 1,3

Sept. 2013 - März 2017

Universität Mannheim

Bachelor of Science · Wirtschaftsmathematik · Mannheim, Germany · 1,7

Zertifikate & Bescheinigungen

Professional Scrum Master 1