Stephan Fröde
NLP/LLM-Chatbot
Erfahrungen
NLP/LLM-Chatbot
Versicherung
- Konzipierte und implementierte einen LLM-basierten Fallassistenten (Aktenassistent)
- Ausgewählte und evaluierte RAG-Methoden; entwarf hybrides RAG-Informationsretrieval mit Elasticsearch + Embeddings
- Errichtete Ingestion-Pipelines für verschiedene Dokumentformate; analysiert und auf Quellsysteme abgestimmt
- Entwickelte eine Streamlit-basierte Chatbot-Oberfläche und führte NLP-gestützte Ursachenkettanalysen für Regressfälle durch
- Bewertete analytische LLM-Methoden; bereitgestellt über Jenkins auf OpenStage
AWS-PoC / Inhaltsanalyse
- Bewertete Dashboard-Ansätze und entwickelte einen Prototyp eines Dashboards in Streamlit mit Google-Suchdaten und HTTP-Logs aus AWS S3/Athena
- Integrierte Web-Such- und Marketing-/Blog-Daten; entwarf Pipelines zur Extraktion und Auswertung von Bildwissen (LMM / Graph & Vector RAG)
- Entwickelte einen AWS-Amplify-Service mit AI-as-a-Service-Integration (Mistral, Replicate); Daten in Neo4j gespeichert mit Text-zu-Graph-Extraktion
- Implementierte Graph RAG mit Neo4j und stellte es mit AWS CDK sowie GitLab CI/CD bereit
Knowledge Graph / NLP / KI
Bundeskriminalamt
- Arbeitete in einer sicherheitsüberprüften (SÜ2) und BSI-konformen Umgebung
- Untersuchte und beriet zum Einsatz von Knowledge Graphs; entwarf und implementierte Pipelines mit Neo4j
- Extrahierte Rohdaten aus SQL-Dumps und ordnete sie Entitäten zu; entwarf das Graph-Datenmodell
- Fortgeschrittenes NLP: NER, Themen- & Ereignisextraktion, Spracherkennung; Extraktion komplexer Relationen mit POLE (Persons, Objects, Locations, Events)
- Wandte Graphalgorithmen (In-Degree, Community Detection – Louvain/Triangle Count) zur Identifikation relevanter Entitäten und Beziehungen an
- Integrierte GeoIP-/Domain-Extraktion und URL-Bewertung; implementierte Streaming-Ingestion (Kafka)
- Entwickelte eine LLM/Chat-Streamlit-App, bereitgestellt auf Cloud Foundry in Kubernetes; integriert in eine BSI-konforme Umgebung
Corporate-Webportal
Siemens
- Entwarf und implementierte tägliche Datenpipelines mit AWS Glue/PySpark und Athena; Überwachung mit CloudWatch
- Erstellte einen GraphQL-Apollo-Server in AWS Lambda; integrierte Inhalte aus OpenSearch und Nutzungsdaten aus dem Adobe-Warehouse
- Ergänzte eine App zur Lesbarkeitsbewertung; integrierte einen AWS-SageMaker-Endpunkt für Textklassifikation
- Führte Machbarkeitsstudien, Konzeptarbeit und Abstimmungen mit Stakeholdern durch; evaluierte Athena Query Federation; steuerte Kosten und Optimierung
Data Lake
BMW Connected Vehicle
- Leitete die Entwicklung großskaliger, AWS-basierter Datenpipelines für mehrere Datensätze (Glue/PySpark, Athena, S3, Lambda, IAM, SQS/SNS, DynamoDB/DAX, Elasticsearch)
- Verarbeitete über 30 Milliarden Zeilen; implementierte automatisierte Neustart- und Wiederherstellungsverfahren sowie Unit-Tests
- Entwarf Architektur für tägliche, historische und Wartungs-Pipelines; führte Produktionsproblem-Analysen und interne Beratung durch
- Führte Kostenanalysen durch, leitete Maßnahmen ab, implementierte Kosteneinsparungen und überwachte Reduktionen
- Refaktorierte komplexe Fahrzeugstammdaten (7 Datensätze, ~35 Tabellen; mittlere Business-Logik; >1 Mrd. Zeilen/Tag)
- Führte Machbarkeitsanalysen, Anforderungsverfeinerung und Implementierungskonzepte durch; erstellte Dokumentationen
Projekt
Generativer KI-Blog & AWS Serverless-Experimente
- Mehrere serverlose Stacks in AWS mit CDK und GitLab CI/CD aufgebaut (VPC/Serverless, Amplify, AppSync, Lambda, API Gateway, Cognito, Route 53, Glue, Neptune, SageMaker, Bedrock, S3)
- LLMs/NLP erkundet (OpenAI API, Hugging Face, Mistral, Replicate, Gemini, Claude); Experimente zur automatisierten Bildanalyse und -generierung mit VLM/LMM durchgeführt; KI-Daten-Pipelines für Wissensextraktion und -anreicherung implementiert (Image-to-Text-to-Knowledge); Chatbots gebaut, die Bildanalyse mit Wissensgraph-Kontext kombinieren
- Explorative iOS-Apps (Swift/SwiftUI) mit API Gateway entwickelt; Ergebnisse in DynamoDB gespeichert; Lambda/Python-Backends
Data Warehouse (Passagierumsatz)
Deutsche Bahn Vertrieb
- Datenmodell für Fahrgastumsatz (Ticketverkauf und andere Services) entworfen und implementiert, unter Berücksichtigung AWS-spezifischer Aspekte (Sort Key, Datenverteilung)
- Mehrstufige Data-Warehouse-Architektur aufgebaut: zweistufiges Staging, Core (persistentes Geschäftsmodell), Analytics (für SAP BO optimiert) und Output für Dateischnittstellen
- ETL-/Daten-Pipelines konzipiert: tägliche Verarbeitung, historische Nachverarbeitung, Housekeeping; Lambda/S3-Events zur Job-Steuerung; Neuladen aus Rohdaten; ca. 1 Mio. Zeilen/Tag verarbeitet
- Jobs mit AWS Batch (Python, Docker) über SSM Parameter Store implementiert; DynamoDB integriert; Red Hat OpenShift auf AWS eingesetzt
- Build-Pipelines für >15 Projekte via GitLab CI/CD verwaltet (dynamische Parametrisierung, Docker-Images, Build-Skripte, Python Merge/Deploy)
- Performance-Analysen und Workshops mit AWS Support durchgeführt; Redshift WLM optimiert; Betriebsstabilität durch wöchentliche Koordination und Fehlerbehebung sichergestellt
Inbound-Logistikkosten
Opel/GM
- Datenmodell entworfen, um die Inbound-Logistikkosten basierend auf Frachtkosten, Wareneingängen und Stammdaten zu berechnen
- Eingehende Kosten pro produziertem Fahrzeug und pro Transport-/Sendungs-/Materialnummer berechnet; umfangreiche Analysen mit SQL und R zur Ableitung von Geschäftsregeln und Fehleranalyse
- In verschiedenen Rollen als Data Analyst, Business Analyst und Data Engineer gearbeitet; Schnittstellen und Prozesse mit Logistik, Netzplanung und Finanzwesen koordiniert
- IT-Konzept erstellt und die Lösung zur operativen Nutzung an die Fachabteilung übergeben
Funktionale Datenanalyse
BMW
- Materialsteuerung und Logistikplanung analysiert; gemeinsam mit Stakeholdern priorisiert; die SAP–DWH-Schnittstelle untersucht
- Teradata SQL, ETL-Module, Views und Datenmodelle in Quell-, Inbound-(SAP→DWH)- und DWH-Ebenen untersucht; Lösungen vorgeschlagen und Ergebnisse dokumentiert
Produktionsdaten / Big Data
BMW
- Schnittstellenspezifikationen verfasst und SQL-basierte Datenanalysen durchgeführt; Anforderungen erfasst und analysiert; Lösung dokumentiert und modelliert
- IT-Konzept erstellt (Architektur, Schnittstellen, Betrieb); bei der Auswahl von Tools für Change Data Capture unterstützt
Nebenprojekt
Social VR Prototype
- Prototyp eines kollaborativen VR-Raums mit Messaging, Benutzermanagement und Echtzeitbeschränkungen
- Erforschung von Skalierung und Verfügbarkeit von Echtzeitdiensten; Erstellung eines visuellen Konzepts und 3D-Modellierung
Zeiterfassung
BMW
- Vorbereitung und Abschluss der Go-Live-Bereitschaft und des Testmanagements; Betriebshandbuch verfasst
- Analyse von Deployment- und Betriebsproblemen
Einführung Tableau/Teradata
BMW
- Einführung der Teradata-/Tableau-BI/DWH-Umgebung (ca. 80 Schnittstellen): Architektur-Analyse, Skalierung/Performance und 7-Jahres-TCO über 6 Alternativen
- Unterstützung bei fachlichen, funktionalen und IT-Konzepten, Schnittstellenanalyse und Koordination mit externen Datenlieferanten
- Beratung zu Informationssicherheit und Datenschutz; Initiierung und Automatisierung von Betriebsprozessen; Change- und Incident-Management
- Koordination von Tests (Testfälle & Monitoring); Leitung von Code-Reviews, Datenqualitätsanalysen und Vorschlägen zur Problembehebung
Strategisches Reporting – Vorserie
BMW
- Koordination von Änderungen und Erstellung eines Betriebshandbuchs für Go-Live-Bereitschaft und Betriebsfreigabe
- Analyse von Deployment- und Betriebsproblemen sowie Dokumentation der betrieblichen Maßnahmen
- Arbeit mit SAP BW (Prozessketten, DSOs)
Sonderausstattungsplanung
BMW
- Erstellung von Grobkonzepten und funktionalen Konzepten: Prozessanalyse & -beschreibung, Anforderungserfassung & -analyse, Prozessmodellierung
- Überführung von Anforderungen und Prozessmodellen in Anwenderanleitungen und Data-Stewardship-Workflows
Garantiekosten-Controlling
BMW
- Analysierte Prozesse und IT-Architektur; führte Leistungstests durch; erfasste funktionale Anforderungen (Kosten, Qualität, Rückstellungen)
- Schlug BI/Analytics-Lösungen und eine neue Architektur vor; lieferte Prototypen in QlikView, SPSS Modeler und Java EJB
BI in der Qualitätssicherung
BMW
- Analysierte das Datenmodell und die Datenbereitstellung einer QlikView-Anwendung in der Qualitätssicherung; definierte UI- und Analyseanforderungen in QlikView 11 mit VBScript-Komponenten
- Implementierte länderspezifische Datenansichten auf Basis des Benutzers (NTUser)
Hybride KI-Storytelling-Plattform
Saganode
- Entwarf und baute eine hybride KI-Storytelling-/World-Building-Plattform, die Wissensgraphen, LLMs und maßgeschneiderte Entropie-Steuerungs-Heuristiken kombiniert
- Implementierte mehrschichtige Graph-Räume (temporal, kausal, konzeptionell) und Graph RAG; integrierte generative Services für Text, Bild und Musik
- Entwickelte einen React-basierten Graph-Explorer zur Navigation durch Universum/Saga/Story
- Verantwortete Sicherheit und Deployment: AWS AppSync/Amplify-Backends; REST-/GraphQL-Endpunkte; CI/CD; AWS CDK; Cognito/IAM
Empfehlungs-Engine
Obylo
- Untersuchte Graph-Datenbankansätze und semantisches BI auf Neo4j; erstellte ETL für Graph-Ingestion; erforschte Skalierungs-, Latenz- und I/O-Einschränkungen
- Entwickelte frühe Social-VR-Experimente mit Unity/Blender und Akka/C#; baute Such- und Empfehlungskomponenten für komplexe Daten
ERP/DWH-Migration & Finanzprozesse
Deutsche Telekom
- Analysierte Auswirkungen der One.ERP-Integration auf DWH-T-Systeme; kartierte Datenflüsse über SAP- und BW-Landschaften
- Bewertete zentrale Finanzprozesse: Umsatzabwicklung, Monatsabschluss, Mahnwesen/Forderungsmanagement, Logistik, Nebenbücher, Abrechnung/Rechnungserstellung
- Erstellte Unterlagen zu Controlling-, Treasury-, Buchhaltungs- und Berichterstattungsunterschieden nach IFRS/HGB; erläuterte Kennzahlen (OCF, ROCE, CapEx, EBITDA)
Banking- und Finanzberatung
Mehrere Institutionen
- Leitender Berater für konzernweites Management-Reporting: strategische und fachliche Konzepte, Abstimmung der Anforderungen, Projektmanagement
- Beratung zu Reporting- und BI-Prozessen zur Unterstützung von Controlling- und Treasury-Anforderungen; OSPlus-Migrationen und Datenintegration
- Konzeption von Cashflow-Prototypen und Beratung zu Cash-Management-Lösungen und -Prozessen
- Durchführung von Business-Analyse und Prototyp-Design für Abschluss-Workflows und Finanzberichterstattung
- Erstellung eines Businessplans, einer Liquiditätsplanung und einer Deckungsbeitragsrechnung für ein E-Commerce-Startup; Marktmodell auf Basis von Börsenmechaniken
BI-/DWH-Architektur & Reporting
NordLB
- Beratung zur BI-/DWH-Architektur und zum Reporting für Banking-Funktionen mit Schwerpunkt Controlling und Risikoreporting
Berater
Unabhängig/Freiberuflich
- Leitung von Projekten in den Bereichen Banking, Medien und Telekommunikation; Rollen im Projektmanagement, Software Engineering und Produktmanagement
Mitgründer und Manager
Scopas Medien AG / FunPage
- Mitgründung und Leitung des Agenturbetriebs; Produktionsplanung; Umsetzung mehrerer Kundenprojekte
- Durchführung von Software- und Multimedia-Engineering
Industrie Erfahrung
Sehen Sie, wo dieser Freiberufler den Großteil seiner beruflichen Laufbahn verbracht hat. Längere Linien stehen für umfangreichere praktische Erfahrung, während kürzere Linien auf gezielte oder projektbezogene Arbeit hindeuten.
Erfahren in Medien und Unterhaltung (27 Jahre), Informationstechnologie (14 Jahre), Telekommunikation (12 Jahre), Bank- und Finanzwesen (11 Jahre), Automotive (5.5 Jahre) und Transport (3 Jahre).
Geschäftsbereich Erfahrung
Die folgende Grafik bietet einen Überblick über die Erfahrungen des Freiberuflers in verschiedenen Geschäftsbereichen, berechnet anhand abgeschlossener und aktiver Aufträge. Sie zeigt die Bereiche, in denen der Freiberufler am häufigsten zur Planung, Umsetzung und Erzielung von Geschäftsergebnissen beigetragen hat.
Erfahren in Produktentwicklung (27 Jahre), Informationstechnologie (22 Jahre), Business Intelligence (16 Jahre), Forschung und Entwicklung (14 Jahre), Projektemanagement (11 Jahre) und Betrieb (7 Jahre).
Zusammenfassung
Berater und Entwickler mit über 20 Jahren Erfahrung im Datenengineering, in der KI/LLM-Integration und in Cloud-Architekturen. Spezialisiert auf skalierbare Datenpipelines, Wissensgraphen und Retrieval-augmented Generation (RAG). Umfassende Erfahrung im NLP/LLM-Engineering, in der Ontologie-Integration, semantischer Anreicherung und in Graphenalgorithmen. Nachweisliche Erfolge in der Automobilindustrie, im Finanzwesen, in der Telekommunikation, im öffentlichen Sektor und in der Strafverfolgung.
Fähigkeiten
- Datenengineering: Aws (Glue, Athena, S3, Lambda, Redshift, Sagemaker, Amplify), Databricks, Ci/cd (Gitlab Ci/cd, Jenkins), Python, Pyspark
- Ki & Llms: Llms (Openai, Mistral, Gemini, Claude, Amazon Nova), Rag-architekturen, Embeddings, Vektordatenbanken (Neo4j, Qdrant), Ontologie-integration (Esco), Nlp (Spacy, Nltk), Generative Ki
- Graph-analytik: Wissensgraphmodellierung, Graphalgorithmen (Community Detection, Triangle Count, Louvain), Graph Reasoning, Semantische Anreicherung, Graphql
- Finanz- & Controlling-expertise: Ifrs/hgb-rechnungslegung, Controlling, Treasury, Cash Management, Risikocontrolling, Finanzberichterstattung
Sprachen
Ausbildung
Hochschule Furtwangen
Diplom in Wirtschaftsinformatik (FH) · Wirtschaftsinformatik · Furtwangen, Deutschland
Werner-Heisenberg-Schule
Abitur · Rüsselsheim, Deutschland
Profil
Frequently asked questions
Sie haben Fragen? Hier finden Sie weitere Informationen.
Wo ist Stephan ansässig?
Welche Sprachen spricht Stephan?
Wie viele Jahre Erfahrung hat Stephan?
Für welche Rollen wäre Stephan am besten geeignet?
Was ist das neueste Projekt von Stephan?
Für welche Unternehmen hat Stephan in den letzten Jahren gearbeitet?
In welchen Industrien hat Stephan die meiste Erfahrung?
In welchen Bereichen hat Stephan die meiste Erfahrung?
In welchen Industrien hat Stephan kürzlich gearbeitet?
In welchen Bereichen hat Stephan kürzlich gearbeitet?
Was ist die Ausbildung von Stephan?
Wie ist die Verfügbarkeit von Stephan?
Wie hoch ist der Stundensatz von Stephan?
Wie kann man Stephan beauftragen?
Durchschnittlicher Tagessatz für ähnliche Positionen
Die Tagessätze basieren auf aktuellen Projekten und enthalten keine FRATCH-Marge.
Ähnliche Freelancer
Entdecken Sie andere Experten mit ähnlichen Qualifikationen und Erfahrungen
Experten, die kürzlich an ähnlichen Projekten gearbeitet haben
Freelancer mit praktischer Erfahrung in vergleichbaren Projekten als NLP/LLM-Chatbot
Freelancer in der Nähe
Fachkräfte, die in oder in der Nähe von Wiesbaden, Deutschland arbeiten