Forschung und Entwicklung von Modellen für Chatbots, NLP und LLMs (z. B. Llama, Qwen, OpenAI)
Erweiterung von Chatbots mit RAG und In-Context-Learning
Überwachung der Feinabstimmung (PEFT, LoRA) mit Huggingface oder Unsloth
Einsatz fortgeschrittener Trainingsmethoden: Test-Time-Training, transduktives aktives Lernen
Implementierung von High-Throughput-Serving mit vLLM
Einsatz von Embedding-Modellen (z. B. SentenceTransformers), Ähnlichkeits-/Vektorsuche, Vektordatenbanken oder Ranking (z. B. LlamaIndex, Faiss, LangChain)
Generierung und Filterung synthetischer Daten und Durchführung von Clustering
Erkennung von Halluzinationen
Bewertung von Chatbot-Modellen mit Rouge, BLEU, F1-Score, Recall und Precision
Visualisierung von Experimenten mit matplotlib
Forschung und Entwicklung von Modellarchitekturen für Spracherkennungssysteme (ASR), große Sprachmodelle (LLM), Verarbeitung natürlicher Sprache (NLP), Sprecherdiarisierung und -erkennung, Textformatierung, Zusammenfassung und Chatbots
Training und Feinabstimmung neuronaler Netze und probabilistischer Modelle: CTC, Transducer, HMM, segmentale CRF, Conformer, Transformer, CNNs, RNNs
Training auf Multi-GPU-Knoten mit großflächigen Datensätzen
Optimierung von Modellen hinsichtlich Genauigkeit, Größe (Quantisierung, Pruning) und Geschwindigkeit
Implementierung und Optimierung von Decodierungsalgorithmen
Datenaufbereitung: Training von Tokenizern, erzwungene Ausrichtung (Forced Alignment) und Entwicklung von Skripten zur Datenbereinigung
Beratung zu Roadmaps und Quartalsplanung, Erstellung von Epics und Tickets, Betreuung von Junior-Forschern und Entwicklern
Entwicklung eines Open-Source-ASR-Modells als Kernmitglied des Forschungsteams
Veröffentlichung eines Erstautor-Artikels auf der Interspeech 2025 zum Thema Spracherkennung und maschinelles Lernen
Implementierung und Training von Spracherkennungssystemen (ASR) für Mobiltelefone
Training neuronaler Netze auf Multi-GPU-Systemen
Analyse von Ca-Imaging-Aufzeichnungen neuronaler Aktivität bei sedierten und wachen Mäusen
Klassifizierung und Visualisierung von Gehirnzustandsverläufen mit PCA, LDA, SVM, Kalman-Filter/Smoother, Clustering, Regression und Zeitreihenprognose
Spezialisierung auf neuronale Netze und probabilistische Modelle für Sequenzen: Spracherkennung (ASR), Verarbeitung natürlicher Sprache (NLP), große Sprachmodelle (LLM) und generative KI, Zeitreihenprognosen, klassische maschinelle Lernverfahren und Statistik, Regression, Klassifikation, Clustering, Sequenz-zu-Sequenz-Modelle, überwachtes/ungewachtes Lernen, Anomalieerkennung, Betrugserkennung
Lösung schwieriger algorithmischer Probleme, Entwicklung neuer Architekturen, Erstellung von Prototypen
Training und Feinabstimmung von Modellen, Optimierung von Genauigkeit, Geschwindigkeit und Größe
Integration und Einsatz in der Cloud oder vor Ort (CPU, GPU, On-Device, Embedded)
Entwicklung in Python (15 Jahre), PyTorch (6,5 Jahre), TensorFlow (4 Jahre), Java, C++
Forschungserfahrung im maschinellen Lernen an Universitätslabors und Technologieunternehmen
Veröffentlichung wissenschaftlicher Artikel, Vorträge auf Konferenzen und Posterpräsentationen
Betreuung von Seminaren und Übungen zu maschinellem Lernen, neuronalen Netzen und statistischen Methoden in Universitätslaboren
Entdecken Sie andere Experten mit ähnlichen Qualifikationen und Erfahrungen.
2025 © FRATCH.IO GmbH. All rights reserved.