Federführend bei der Definition von Entwicklungsprozessen, Tools und Infrastruktur zur Produktion und Bereitstellung von KI-Modellen.
Federführend bei der Definition des Betriebsmodells für KI-Produkte.
Analyse und Entwicklung von Multi-Cloud-Deployment-Lösungen mit Ray Serve, LangChain und Kubernetes auf AWS, Azure und GCP.
Entwurf einer Produktionsumgebung zur Bereitstellung von PyTorch-Modellen mit GenAI- und Agentic-AI-Anwendungen, replizierbar auf AWS, Azure und GCP mit Ray Serve.
Aufbau von zwei Iterationen eines Engineer-Copilot-KI-Systems zur Fehlerdiagnose und Downtime-Schätzung von Flugzeugen.
Definition einer Taxonomie für Flugzeug- und Triebwerksstörungen und Aufbau eines temporalen Knowledge Graphs, der von einem LLM-Agenten genutzt wird.
Aufbau einer Graph-Datenbank mit einem feinabgestimmten LLM und LangChain zur Klassifizierung von Flugzeug-Wartungsaufzeichnungen.
Feinabstimmung eines PyTorch-BERT-Klassifikators mit 20 Mio. Wartungsdatensätzen, bereitgestellt auf Hugging Face für AWS, Azure und GCP.
Definition einer RAG-Architektur und von LLM-Agent-Workflows mit der LangGraph-Bibliothek von LangChain.
Einsatz von Flask und Streamlit für schnelles Prototyping.
Einsatz von FastAPI zum Anbinden von Agenten an SAP-ERP-Webservices für Ersatzteilverfügbarkeits- und Beschaffungsberichte.
Implementierung von Vektordatenbanken: Azure AI Search, Pinecone und Vertex AI Matching Engine.
Einsatz von ChatGPT-4o auf Azure/AWS und Gemini auf GCP.
Erstellung einer zweistufigen GenAI/Agentic-AI-RAG-Architektur zur Vorschlagsermittlung von Fehlerursachen, zu prüfenden/zu ersetzenden Teilen, geschätzten Ausfallzeiten und weiteren prüfenswerten Teilen.
Aufbau multimodaler GenAI-PoCs, die Bild- oder Spracheingaben akzeptieren und Prompts für die Engineer-Copilot-Anwendung generieren.
Einsatz von Microsoft Copilot auf Azure zur Orchestrierung von Chatbots und Definition von Tool-/Agenten-Aufrufabläufen.
Definition der Datenarchitektur und Migration für die Erstellung eines Analytics-DWH mit Snowflake zur Konsolidierung von Daten mehrerer Fluggesellschaften.
Aufbau eines Data Lakes auf AWS, Azure und GCP für verschiedene OPCOs.
Definition von Data-Governance- und Data-Quality-Rollen in Zusammenarbeit mit der HR.
Erstellung von Datenpipelines für die Datenaufnahme.
Ein Enterprise-Architekt mit Hintergrund als Data Scientist und in künstlicher Intelligenz, mit fast 15 Jahren Erfahrung in UK, der EU, Afrika, dem Nahen Osten, Asien-Pazifik und Australien. Die Kernkompetenzen umfassen die Definition von Unternehmensarchitekturen, Data Science, künstliche Intelligenz unter Einsatz von LLMs für Generative AI, das Erstellen von neuronalen Netzen für Klassifikationsmodelle oder zur Video- und Textklassifikation, Zeitreihenanalyse – alles entwickelt mit Python. In der Regel werde ich beauftragt, (Team- & Lösungs-)Führung und Know-how bereitzustellen und beherrsche die Wechselbeziehungen zwischen den vier Architekturen, auf die eine komplexe Organisation zur Umsetzung ihrer Geschäftsstrategie angewiesen ist (Business, Daten, Infrastruktur, Anwendungen). Dabei arbeite ich je nach Situation mit fachlichen oder technischen Stakeholdern, Domain-Owners und Projektlenkungsausschüssen zusammen.
Entdecken Sie andere Experten mit ähnlichen Qualifikationen und Erfahrungen.
2025 © FRATCH.IO GmbH. All rights reserved.