Produktleitung: Leitung eines internationalen sechsköpfigen Entwickler-Teams im Scrum-Umfeld
Strategische Produktentwicklung: Festlegung der strategischen Ziele für das Projekt in Abstimmung mit den Stakeholdern und dem Entwicklungsteam
Prompt Engineering: Prompt Engineering für Sprachmodelle zur Verbesserung der Genauigkeit und Relevanz der generierten Antworten
LangChain Komponenten: Implementierung von LangChain Komponenten eines RAG Chatbots zur Beantwortung rechtlicher Fragen
Technologien: GPT-4, LangChain, Python (Pandas, sklearn, streamlit), Docker, GitLab, ChromaDB
Enterprise-Search Lösung: Entwicklung einer skalierbaren und leistungsfähigen Enterprise-Search Lösung
Entwicklung eines RAGs: Implementierung eines Retrieval-Augmented Generation (RAG) Modells, um valide und kontextbezogene Antworten auf Benutzeranfragen zu Dokumenten zu liefern
Messaging Queues: Implementierung und Verwaltung von Messaging Queues zur Gewährleistung der zuverlässigen und skalierbaren Datenverarbeitung und -übertragung zwischen verschiedenen Systemkomponenten
API-Entwicklung: Erstellung von RESTful APIs zur Bereitstellung der Suchfunktionalitäten und Integration der Enterprise-Search Lösung in bestehende Anwendungen und Systeme, einschließlich Sicherheits- und Authentifizierungsmechanismen
Technologien: ElasticSearch, Kibana, LLaMA, SQL, FastAPI, Docker, Python (Pandas, sklearn, PyTorch), HuggingFace
Entwicklung eines Risikomodells: Entwicklung und Implementierung eines Frühwarnsystems basierend auf strukturierten und unstrukturierten Daten zur Überwachung des Ausfallrisikos von Fonds
Entwicklung eines Chatbots: Entwicklung eines Chatbots für die Aufsichtsbehörde auf der Grundlage von GPT-4 zur Beantwortung von Fragen zu Jahres- und Quartalsberichten
Implementierung von CI/CD-Pipelines: Implementierung und Konfiguration automatisierter CI/CD-Pipelines zur Automatisierung von Build-, Test- und Deploy-Prozessen
Stakeholder-Management: Enge Zusammenarbeit mit Fachexperten, um die Anforderungen an das Frühwarnsystem zu verstehen
Technologien: GPT-4, LangChain, Python (Pandas, NumPy, PyTorch, sklearn), SQL, GitLab, Docker, Kubernetes, Apache Spark, ChromaDB
Projektleitung: Leitung des Projekts, regelmäßige Abstimmungen mit dem Kunden und Sicherstellung der Erfüllung aller Anforderungen und Erwartungen
Modellentwicklung: Entwicklung und Training von Modellen zur Analyse von Wirtschafts- und Finanzmarktberichten
Performance-Optimierung: Optimierung der Modellleistung durch Hyperparameter-Tuning und Implementierung von Feature Engineering und Regularisierung
Stakeholder-Management: Zusammenarbeit mit Experten zur Validierung der Modellergebnisse und zur Anpassung an spezifische Anforderungen der Behörde
Technologien: Python (Pandas, Numpy, SpaCy, sklearn, Keras), HuggingFace, GitLab, Docker
Analyse der Verkaufsdaten: Tiefgehende Untersuchung historischer Verkaufsdaten, um Muster, Trends und saisonale Schwankungen zu identifizieren, die die Absatzzahlen beeinflussen könnten
Implementierung von Zeitreihenanalysen: Nutzung von Zeitreihenanalyse-Techniken wie ARIMA, Exponential Smoothing sowie fortschrittlicher ML-Modelle wie Random Forests oder LSTM zur Verbesserung der Vorhersagegenauigkeit der Absatzzahlen
Integration externer Datenquellen: Einbindung zusätzlicher Daten wie Wetterdaten oder Marketingkampagnen, um die Genauigkeit der Absatzprognosen weiter zu verbessern
Risiko- und Chancenanalyse: Durchführung von Sensitivitätsanalysen und Szenario-Modellierungen, um potenzielle Risiken und Chancen frühzeitig zu identifizieren und entsprechende Strategien zu entwickeln
Technologien: Python (Pandas, NumPy, seaborn, sklearn), Azure (Databricks, Data Lake, Functions, Machine Learning), SQL, GitLab
Implementierung der Preprocessing-Pipeline: Entwicklung und Implementierung von Preprocessing-Pipelines zur Standardisierung und Strukturierung der Kommunikationsdaten von Tradern
Erstellung von Word-Embeddings: Nutzung des vortrainierten FinBERT-Modells zur Generierung von Word-Embeddings aus finanzbezogenen Texten
Modellentwicklung: Entwicklung und Implementierung von Modellen zur Netzwerkanalyse, Anomalieerkennung und zum Clustering
Automatisierung von Workflows: Entwicklung und Automatisierung von End-to-End-Workflows für das Training, die Validierung und das Deployment der Modelle
Technologien: Python (SpaCy, sklearn, TensorFlow), Hugging Face, SQL, ElasticSearch, Docker, Kubernetes, GitHub, Jenkins, MLflow
Konfiguration der Cloud-Infrastruktur: Entwurf und Implementierung von Cloud-basierten Systemarchitekturen mit Azure
Konfiguration einer MLOps-Plattform: Einrichtung und Konfiguration von Kubeflow und MLflow zur Verwaltung und Automatisierung von Machine Learning Workflows
Entwicklung eines Modells zur Anomalieerkennung: Erstellung und Training von Machine Learning Modellen zur Identifikation ungewöhnlicher Verkehrsmuster und -situationen
Implementierung von Tests: Entwicklung und Durchführung von Tests zur Sicherstellung der Funktionalität, Zuverlässigkeit und Sicherheit der entwickelten Lösungen
Technologien: Python (TensorFlow, PyTorch, Pandas, NumPy), Azure (Kubernetes Service, DevOps, Storage), Kubeflow, MLflow, Helm
Datenaufbereitung und -bereinigung: Sammlung und Bereinigung historischer Verkaufsdaten sowie externer Faktoren wie Markttrends, Wirtschaftsdaten und saisonale Einflüsse
Feature Engineering: Identifikation und Erstellung relevanter Features zur Verbesserung der Vorhersagegenauigkeit der Modelle
Modellentwicklung: Entwicklung und Training verschiedener Machine Learning Modelle zur Vorhersage der Absatzzahlen, einschließlich spezifischer Forecasting-Modelle wie Prophet und ARIMA
Explainable AI: Implementierung eines Explainable AI Moduls basierend auf SHAP zur Verbesserung der Transparenz und Nachvollziehbarkeit der Modellergebnisse
Technologien: Python (Prophet, statsmodels, Keras, Pandas, NumPy, SHAP), SQL, GitLab
Design und Implementierung der Microservices: Entwicklung dockerisierter Microservices, einschließlich APIs und Testspezifikation zur Erkennung von Named Entities, unter Verwendung und Anpassung von vor- und nachtrainierten KI-Modellen
Implementierung von Sentiment-Analyse-Modellen: Entwicklung und Implementierung von Modellen zur Berechnung eines Scores für das Sentiment von Fondsberichten
Feature Engineering und -Auswahl: Identifikation und Erstellung relevanter Merkmale (Features) aus den Textdaten, die zur Verbesserung der Modellleistung beitragen, sowie Auswahl der wichtigsten Features für das Training der Modelle
Hyperparameter-Tuning: Optimierung der Hyperparameter durch systematische Suche bzw. durch fortgeschrittene Methoden wie Bayesian Optimization
Technologien: Python (Pandas, Numpy, NLTK, SpaCy, Tensorflow), Flask, Azure (Databricks, Cognitive Services, Machine Learning, DevOps)
Entwicklung des ETL-Workflows: Erstellung eines Workflows zur Verarbeitung von Dokumentendaten, einschließlich nahtloser Integration von OCR- und NLP-Modulen
Implementierung der OCR-Microservices: Implementierung von OCR-Algorithmen zur automatischen Texterkennung in verschiedenen Bilddateiformaten (tif, jpg, png), inkl. Containerisierung der OCR-Microservices mittels Docker
Implementierung der NLP-Microservices: Entwicklung und Implementierung von NLP-Modellen zur Informationsextraktion aus den erkannten Texten
Feature Engineering: Extraktion relevanter Merkmale aus den OCR- und NLP-Daten, die zur Verbesserung der Modellleistung und zur besseren Informationsextraktion beitragen können
Technologien: Python (Tesseract, SpaCy, NLTK, Pandas, NumPy), Docker, Kubernetes, GitLab
Modellentwicklung und Monte-Carlo-Simulationen: Entwicklung und Validierung von Kreditrisikomodellen in Python, inkl. Implementierung von Monte-Carlo-Simulationen zur Analyse verschiedener Risikoszenarien
Datenmanagement und -analyse: Verwendung von SQL zur Verwaltung und Abfrage großer Datenmengen, gefolgt von Datenaufbereitung, Bereinigung und explorativer Datenanalyse in Python zur Identifizierung wichtiger Merkmale und Muster
Validierung und Feinabstimmung: Validierung der Modelle durch Backtesting und historische Datenanalyse, gefolgt von Feinabstimmung der Modelle basierend auf den Validierungsergebnissen
Integration und Deployment: Integration der entwickelten Modelle in das IT-System der Bank und Bereitstellung für den produktiven Einsatz, inklusive kontinuierlicher Überwachung und Optimierung
Technologien: Microsoft SQL, Python (Pandas, NumPy, SciPy, sklearn, Seaborn), GitLab, Docker