Produktleitung: Leitung eines internationalen sechsköpfigen Entwickler-Teams im Scrum-Umfeld
Strategische Produktentwicklung: Festlegung der strategischen Ziele für das Projekt in Abstimmung mit den Stakeholdern und dem Entwicklungsteam
Prompt Engineering: Prompt Engineering für Sprachmodelle zur Verbesserung der Genauigkeit und Relevanz der generierten Antworten
LangChain Komponenten: Implementierung von LangChain Komponenten eines RAG Chatbots zur Beantwortung rechtlicher Fragen
Technologien: GPT-4, LangChain, Python (Pandas, sklearn, streamlit), Docker, GitLab, ChromaDB
Enterprise-Search Lösung: Entwicklung einer skalierbaren und leistungsfähigen Enterprise-Search Lösung
Entwicklung eines RAGs: Implementierung eines Retrieval-Augmented Generation (RAG) Modells, um valide und kontextbezogene Antworten auf Benutzeranfragen zu Dokumenten zu liefern
Messaging Queues: Implementierung und Verwaltung von Messaging Queues zur Gewährleistung der zuverlässigen und skalierbaren Datenverarbeitung und -übertragung zwischen verschiedenen Systemkomponenten
API-Entwicklung: Erstellung von RESTful APIs zur Bereitstellung der Suchfunktionalitäten und Integration der Enterprise-Search Lösung in bestehende Anwendungen und Systeme, einschließlich Sicherheits- und Authentifizierungsmechanismen
Technologien: ElasticSearch, Kibana, LLaMA, SQL, FastAPI, Docker, Python (Pandas, sklearn, PyTorch), HuggingFace
Entwicklung eines Risikomodells: Entwicklung und Implementierung eines Frühwarnsystems basierend auf strukturierten und unstrukturierten Daten zur Überwachung des Ausfallrisikos von Fonds
Entwicklung eines Chatbots: Entwicklung eines Chatbots für die Aufsichtsbehörde auf der Grundlage von GPT-4 zur Beantwortung von Fragen zu Jahres- und Quartalsberichten
Implementierung von CI/CD-Pipelines: Implementierung und Konfiguration automatisierter CI/CD-Pipelines zur Automatisierung von Build-, Test- und Deploy-Prozessen
Stakeholder-Management: Enge Zusammenarbeit mit Fachexperten, um die Anforderungen an das Frühwarnsystem zu verstehen
Technologien: GPT-4, LangChain, Python (Pandas, NumPy, PyTorch, sklearn), SQL, GitLab, Docker, Kubernetes, Apache Spark, ChromaDB
Projektleitung: Leitung des Projekts, regelmäßige Abstimmungen mit dem Kunden und Sicherstellung der Erfüllung aller Anforderungen und Erwartungen
Modellentwicklung: Entwicklung und Training von Modellen zur Analyse von Wirtschafts- und Finanzmarktberichten
Performance-Optimierung: Optimierung der Modellleistung durch Hyperparameter-Tuning und Implementierung von Feature Engineering und Regularisierung
Stakeholder-Management: Zusammenarbeit mit Experten zur Validierung der Modellergebnisse und zur Anpassung an spezifische Anforderungen der Behörde
Technologien: Python (Pandas, Numpy, SpaCy, sklearn, Keras), HuggingFace, GitLab, Docker
Analyse der Verkaufsdaten: Tiefgehende Untersuchung historischer Verkaufsdaten, um Muster, Trends und saisonale Schwankungen zu identifizieren, die die Absatzzahlen beeinflussen könnten
Implementierung von Zeitreihenanalysen: Nutzung von Zeitreihenanalyse-Techniken wie ARIMA, Exponential Smoothing sowie fortschrittlicher ML-Modelle wie Random Forests oder LSTM zur Verbesserung der Vorhersagegenauigkeit der Absatzzahlen
Integration externer Datenquellen: Einbindung zusätzlicher Daten wie Wetterdaten oder Marketingkampagnen, um die Genauigkeit der Absatzprognosen weiter zu verbessern
Risiko- und Chancenanalyse: Durchführung von Sensitivitätsanalysen und Szenario-Modellierungen, um potenzielle Risiken und Chancen frühzeitig zu identifizieren und entsprechende Strategien zu entwickeln
Technologien: Python (Pandas, NumPy, seaborn, sklearn), Azure (Databricks, Data Lake, Functions, Machine Learning), SQL, GitLab
Implementierung der Preprocessing-Pipeline: Entwicklung und Implementierung von Preprocessing-Pipelines zur Standardisierung und Strukturierung der Kommunikationsdaten von Tradern
Erstellung von Word-Embeddings: Nutzung des vortrainierten FinBERT-Modells zur Generierung von Word-Embeddings aus finanzbezogenen Texten
Modellentwicklung: Entwicklung und Implementierung von Modellen zur Netzwerkanalyse, Anomalieerkennung und zum Clustering
Automatisierung von Workflows: Entwicklung und Automatisierung von End-to-End-Workflows für das Training, die Validierung und das Deployment der Modelle
Technologien: Python (SpaCy, sklearn, TensorFlow), Hugging Face, SQL, ElasticSearch, Docker, Kubernetes, GitHub, Jenkins, MLflow
Konfiguration der Cloud-Infrastruktur: Entwurf und Implementierung von Cloud-basierten Systemarchitekturen mit Azure
Konfiguration einer MLOps-Plattform: Einrichtung und Konfiguration von Kubeflow und MLflow zur Verwaltung und Automatisierung von Machine Learning Workflows
Entwicklung eines Modells zur Anomalieerkennung: Erstellung und Training von Machine Learning Modellen zur Identifikation ungewöhnlicher Verkehrsmuster und -situationen
Implementierung von Tests: Entwicklung und Durchführung von Tests zur Sicherstellung der Funktionalität, Zuverlässigkeit und Sicherheit der entwickelten Lösungen
Technologien: Python (TensorFlow, PyTorch, Pandas, NumPy), Azure (Kubernetes Service, DevOps, Storage), Kubeflow, MLflow, Helm
Datenaufbereitung und -bereinigung: Sammlung und Bereinigung historischer Verkaufsdaten sowie externer Faktoren wie Markttrends, Wirtschaftsdaten und saisonale Einflüsse
Feature Engineering: Identifikation und Erstellung relevanter Features zur Verbesserung der Vorhersagegenauigkeit der Modelle
Modellentwicklung: Entwicklung und Training verschiedener Machine Learning Modelle zur Vorhersage der Absatzzahlen, einschließlich spezifischer Forecasting-Modelle wie Prophet und ARIMA
Explainable AI: Implementierung eines Explainable AI Moduls basierend auf SHAP zur Verbesserung der Transparenz und Nachvollziehbarkeit der Modellergebnisse
Technologien: Python (Prophet, statsmodels, Keras, Pandas, NumPy, SHAP), SQL, GitLab
Design und Implementierung der Microservices: Entwicklung dockerisierter Microservices, einschließlich APIs und Testspezifikation zur Erkennung von Named Entities, unter Verwendung und Anpassung von vor- und nachtrainierten KI-Modellen
Implementierung von Sentiment-Analyse-Modellen: Entwicklung und Implementierung von Modellen zur Berechnung eines Scores für das Sentiment von Fondsberichten
Feature Engineering und -Auswahl: Identifikation und Erstellung relevanter Merkmale (Features) aus den Textdaten, die zur Verbesserung der Modellleistung beitragen, sowie Auswahl der wichtigsten Features für das Training der Modelle
Hyperparameter-Tuning: Optimierung der Hyperparameter durch systematische Suche bzw. durch fortgeschrittene Methoden wie Bayesian Optimization
Technologien: Python (Pandas, Numpy, NLTK, SpaCy, Tensorflow), Flask, Azure (Databricks, Cognitive Services, Machine Learning, DevOps)
Entwicklung des ETL-Workflows: Erstellung eines Workflows zur Verarbeitung von Dokumentendaten, einschließlich nahtloser Integration von OCR- und NLP-Modulen
Implementierung der OCR-Microservices: Implementierung von OCR-Algorithmen zur automatischen Texterkennung in verschiedenen Bilddateiformaten (tif, jpg, png), inkl. Containerisierung der OCR-Microservices mittels Docker
Implementierung der NLP-Microservices: Entwicklung und Implementierung von NLP-Modellen zur Informationsextraktion aus den erkannten Texten
Feature Engineering: Extraktion relevanter Merkmale aus den OCR- und NLP-Daten, die zur Verbesserung der Modellleistung und zur besseren Informationsextraktion beitragen können
Technologien: Python (Tesseract, SpaCy, NLTK, Pandas, NumPy), Docker, Kubernetes, GitLab
Modellentwicklung und Monte-Carlo-Simulationen: Entwicklung und Validierung von Kreditrisikomodellen in Python, inkl. Implementierung von Monte-Carlo-Simulationen zur Analyse verschiedener Risikoszenarien
Datenmanagement und -analyse: Verwendung von SQL zur Verwaltung und Abfrage großer Datenmengen, gefolgt von Datenaufbereitung, Bereinigung und explorativer Datenanalyse in Python zur Identifizierung wichtiger Merkmale und Muster
Validierung und Feinabstimmung: Validierung der Modelle durch Backtesting und historische Datenanalyse, gefolgt von Feinabstimmung der Modelle basierend auf den Validierungsergebnissen
Integration und Deployment: Integration der entwickelten Modelle in das IT-System der Bank und Bereitstellung für den produktiven Einsatz, inklusive kontinuierlicher Überwachung und Optimierung
Technologien: Microsoft SQL, Python (Pandas, NumPy, SciPy, sklearn, Seaborn), GitLab, Docker
Erfahrener Data Scientist und Machine Learning Engineer mit über sechs Jahren Projekterfahrung in den Bereichen Data Science, Data Analytics, Machine Learning und Datenvisualisierung. Spezialisiert auf die Entwicklung und Implementierung fortschrittlicher Machine Learning Modelle und datengetriebener Lösungen in verschiedenen Branchen, einschließlich Legal Tech, Finanzwesen und Automobilindustrie. Versiert in der Leitung internationaler Teams und der Umsetzung strategischer Projekte im SCRUM-Umfeld.
Schlüsselqualifikationen:
Technologien:
Meine Berufserfahrung umfasst die Leitung von Entwicklerteams, die Entwicklung von Risiko- und Frühwarnmodellen sowie die Implementierung von AI-gestützten Lösungen zur Anomalieerkennung und Datenüberwachung. Als Co-Founder eines Legal-Tech Startups setze ich mich für den verbesserten Zugang zum Recht und die Förderung von Pro-Bono-Arbeit ein.
Discover other experts with similar qualifications and experience