Beratung, Konzeption und Architektur von SaaS-Plattformen mit Fokus auf Automatisierung, Datenanalyse und Cloud Deployment
Verantwortlich für die Definition der Zielarchitektur sowie den gesamten Entwicklungszyklus von der Implementierung bis zum produktiven Betrieb, inklusive Abstimmung mit Stakeholdern
Konzeption, Architektur und Umsetzung einer Multi-Tenant-SaaS-Plattform
Aufbau von skalierbaren Daten- und Machine-Learning-Pipelines (Batch & Streaming) für Bestell- und Geschäftsdaten
Entwicklung von KI-Modellen zur Datenanalyse (KPI-Berechnungen, Prognosen) und Integration dieser Modelle in die Datenpipelines
KI-gestützte Verarbeitung von Kundenanfragen (z.B. Lieferstatus, Rechnung, Widerruf, Beschwerde) zur Automatisierung des Kundenservice
Entwicklung von APIs, Microservices und Dashboards (Python) für datengetriebene Anwendungen
Cloud Deployment in AWS und Infrastructure-as-Code-Automatisierung mit Terraform; Containerisierung über Docker und Kubernetes
Aufbau von CI/CD-Pipelines zur automatisierten Bereitstellung (GitLab CI) und Governance der Deployment-Prozesse
Implementierung von Monitoring-Dashboards (Grafana) zur Überwachung von Services und ML-Pipelines
Umsetzung von Sicherheits- und Compliance-Anforderungen (DSGVO-konformes Datenhandling, Logging) inkl. Identity & Access Management (IAM) und rollenbasiertem Zugriffsschutz (RBAC)
Sept. 2018 - Jan. 2023
4 Jahren 5 Monaten
Berlin, Deutschland
Senior KI-Berater
Öffentlicher Auftraggeber
Beratung, Konzeption und Umsetzung intelligenter Systeme zur Datenverarbeitung und Prozessautomatisierung mit Schwerpunkt auf NLP, Machine Learning und skalierbarer Software-Architektur
Verantwortlich für die Architekturdefinition und technische Umsetzung von KI-Lösungen in Projekten mit öffentlichkeits- und sicherheitskritischem Fokus
Aufbau und Architektur eines NLP-Systems zur automatischen Klassifikation von Nachrichtentexten mit unternehmensspezifischen Kategorien, inkl. Integration in ein bestehendes Prognosemodell und automatisierter Merkmalsextraktion aus unstrukturierten Textdaten
Entwicklung eines Verfahrens zur Priorisierung von Regressionstests (ML-Modell zur Vorhersage relevanter Testfälle) zur Optimierung der Testanalyse in großen Softwareprojekten
Anwendung semantischer Analyseverfahren im IT-Problemmanagement zur Beschleunigung der Incident-Bearbeitung und Reduktion von Wiederholungsfällen (inkl. Knowledge-Graph-Ansätzen)
Abstimmung von Architekturentscheidungen mit interdisziplinären Teams – Beratung zu Modellvalidierung, Nachvollziehbarkeit (Explainability) und Wissensintegration
Java-Entwicklung von Backend-Komponenten mit Fokus auf Wartbarkeit, Clean Code und nahtlose Integration in bestehende Systemarchitekturen
Modernisierung von Legacy-Anwendungen und Überführung in eine skalierbare Microservices-Architektur (Docker/Kubernetes)
Aufbau einer skalierbaren MLOps-Referenzarchitektur mit automatisiertem Model Lifecycle Management (Versionierung, Pipeline-Orchestrierung, Monitoring)
Verantwortung für die Architektur-Roadmap, CI/CD-Governance (GitLab, Jenkins) und Integration einer MLOps-Toolchain
Evaluation von Strategien für neue KI-Komponenten im Behördenumfeld zur Maximierung der Wiederverwendung vorhandener Lösungen
Juni 2016 - Juni 2018
2 Jahren 1 Monate
Berlin, Deutschland
KI-Architekt & Ingenieur
Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI)
Forschung und Entwicklung im Bereich Industrie 4.0 zur intelligenten Analyse von Sensordaten, Fehlerberichten und Produktionsparametern in cyber-physischen Fertigungsanlagen
Ziel war die Entwicklung von Prognosemodelle zur Prozessoptimierung sowie Methoden zur automatisierten Datenbereinigung in Echtzeit-Datenströmen
Konzeption und Erforschung von Verfahren zur Analyse von Sensordaten und Auftragsparametern für die Effizienzsteigerung von Industrie-4.0-Fertigungsprozessen
Entwicklung von Predictive-Analytics-Modellen für Maschinensensordaten mit Apache Flink und Machine Learning (Streaming- und Batch-Processing)
Analyse unstrukturierter Daten (Fehler-Logs, Wartungs- und Reparaturberichte) mittels NLP zur automatisierten Fehlererkennung und Ursachendiagnose
Implementierung von Methoden zur Echtzeit-Datenbereinigung (Streaming Data Cleaning) und Sicherstellung der Datenqualität in kontinuierlichen Datenströmen
Okt. 2015 - März 2016
6 Monaten
Dublin, Irland
Softwareentwickler
IBM Watson Research Center
Forschung und Entwicklung im Rahmen des IBM Watson DeepQA-Frameworks zur Entwicklung eines graphbasierten Verfahrens für Question Answering
Konzeption und Implementierung eines graphbasierten Modells für Question Answering auf Basis des IBM DeepQA-Frameworks
Analyse und Verarbeitung natürlichsprachlicher Texte (NLP-Pipeline) zur Extraktion semantischer Relationen
Validierung des Ansatzes in Zusammenarbeit mit einem internationalen Forschungsteam in Dublin (IBM Watson Group)
Jan. 2012 - Apr. 2015
3 Jahren 4 Monaten
Berlin, Deutschland
Softwareentwickler
BetterTec GmbH
Konzeption und Entwicklung von Web- und Backend-Funktionalitäten für eine Mobilitätsplattform mit Fokus auf Buchungssysteme, Nutzermanagement und Abrechnungsprozesse
Entwicklung von Komponenten für Buchungs- und Abrechnungssysteme
Integration externer Services und APIs zur Einbindung von Preisinformationen und Buchungsfunktionen
Modellierung und Optimierung relationaler Datenbanken (PostgreSQL) zur effizienten Datenverwaltung
Implementierung zentraler Geschäftslogik für Nutzerverwaltung, Rechnungsstellung und Zahlungen (inkl. Routen-Matching)
Agile Entwicklung im Team nach Scrum (kurze Sprints, regelmäßige Reviews)
Sprachen
Deutsch
Muttersprache
Englisch
Verhandlungssicher
Ausbildung
Okt. 2012 - Sept. 2015
Technische Universität Berlin
Master of Science · Informatik · Berlin, Deutschland
Okt. 2008 - Sept. 2012
Technische Universität Berlin
Bachelor of Science · Informatik · Berlin, Deutschland
Sie suchen Freelancer?Passende Kandidaten in Sekunden!