Martin R.

Senior-KI-Berater und Forschungswissenschaftler

München, Deutschland

Erfahrungen

Mai 2025 - Bis heute
4 Monaten
Vereinigte Staaten

Senior LLM-Forschungswissenschaftler

BYO Inc.

  • Forschung und Entwicklung von Modellen für Chatbots, NLP und LLMs (z. B. Llama, Qwen, OpenAI)

  • Erweiterung von Chatbots mit RAG und In-Context-Learning

  • Überwachung der Feinabstimmung (PEFT, LoRA) mit Huggingface oder Unsloth

  • Einsatz fortgeschrittener Trainingsmethoden: Test-Time-Training, transduktives aktives Lernen

  • Implementierung von High-Throughput-Serving mit vLLM

  • Einsatz von Embedding-Modellen (z. B. SentenceTransformers), Ähnlichkeits-/Vektorsuche, Vektordatenbanken oder Ranking (z. B. LlamaIndex, Faiss, LangChain)

  • Generierung und Filterung synthetischer Daten und Durchführung von Clustering

  • Erkennung von Halluzinationen

  • Bewertung von Chatbot-Modellen mit Rouge, BLEU, F1-Score, Recall und Precision

  • Visualisierung von Experimenten mit matplotlib

Jan. 2019 - Mai 2025
6 Jahren 5 Monaten
Austin, Vereinigte Staaten

Senior-KI-Forschungswissenschaftler

Rev.com

  • Forschung und Entwicklung von Modellarchitekturen für Spracherkennungssysteme (ASR), große Sprachmodelle (LLM), Verarbeitung natürlicher Sprache (NLP), Sprecherdiarisierung und -erkennung, Textformatierung, Zusammenfassung und Chatbots

  • Training und Feinabstimmung neuronaler Netze und probabilistischer Modelle: CTC, Transducer, HMM, segmentale CRF, Conformer, Transformer, CNNs, RNNs

  • Training auf Multi-GPU-Knoten mit großflächigen Datensätzen

  • Optimierung von Modellen hinsichtlich Genauigkeit, Größe (Quantisierung, Pruning) und Geschwindigkeit

  • Implementierung und Optimierung von Decodierungsalgorithmen

  • Datenaufbereitung: Training von Tokenizern, erzwungene Ausrichtung (Forced Alignment) und Entwicklung von Skripten zur Datenbereinigung

  • Beratung zu Roadmaps und Quartalsplanung, Erstellung von Epics und Tickets, Betreuung von Junior-Forschern und Entwicklern

  • Entwicklung eines Open-Source-ASR-Modells als Kernmitglied des Forschungsteams

  • Veröffentlichung eines Erstautor-Artikels auf der Interspeech 2025 zum Thema Spracherkennung und maschinelles Lernen

Nov. 2018 - Feb. 2019
4 Monaten
München, Deutschland

Machine-Learning-Ingenieur

e-bot7

  • Implementierung und Training von Chatbots mit neuronalen Netzen und NLP-Methoden
März 2017 - Mai 2018
1 Jahr 3 Monaten
Graz, Österreich

Machine-Learning-Ingenieur

iTranslate

  • Implementierung und Training von Spracherkennungssystemen (ASR) für Mobiltelefone

  • Training neuronaler Netze auf Multi-GPU-Systemen

März 2013 - Apr. 2017
4 Jahren 2 Monaten
Graz, Österreich

Projektassistent für Computational Neuroscience am Institut für Theoretische Informatik

Technische Universität Graz

  • Analyse von Ca-Imaging-Aufzeichnungen neuronaler Aktivität bei sedierten und wachen Mäusen

  • Klassifizierung und Visualisierung von Gehirnzustandsverläufen mit PCA, LDA, SVM, Kalman-Filter/Smoother, Clustering, Regression und Zeitreihenprognose

März 2013 - Apr. 2017
4 Jahren 2 Monaten
Graz, Österreich

Wissenschaftlicher Projektassistent, Intelligente Systeme im SPSC-Labor

Technische Universität Graz

  • Forschung an neuronalen Netzen und probabilistischen Modellen für Sequenzen
  • Anwendung von maschinellem Lernen, Spracherkennung (ASR) und Sprachmodellen (LM)
  • Innovieren, Implementieren, Trainieren und Veröffentlichen von Arbeiten zu RNNs, CRFs, Sum-Product-Netzen, neuen Regularisierungsmethoden und Verlustfunktionen, Gradientenberechnung und Programmierung für individuelle Modelle sowie segmentale CRFs
  • Betreuung von Masterarbeiten zu maschinellem Lernen und Spracherkennung
Sept. 2008 - Dez. 2011
3 Jahren 4 Monaten
Aachen, Deutschland

Wissenschaftlicher Projektassistent, Sprachtechnologie und Mustererkennung

RWTH Aachen University

  • End-to-End-Maschinenübersetzungssysteme auf CRF-Basis von Grund auf implementieren und trainieren, inklusive Gradienten und Verlustfunktionen für verteilte Multi-Knoten-CPU-Cluster
  • Phrasenbasierte statistische Maschinenübersetzungssysteme inklusive Sprachmodellen trainieren
  • Log-lineare Modelle für Textklassifikation, Wortart-Tagging, Erkennung benannter Entitäten und syntaktische Analyse trainieren und implementieren
  • Seminar- und Übungskurse in maschinellem Lernen und Mustererkennung unterrichten: neuronale Netze, statistische Maschinenübersetzung, Spracherkennung
Sept. 2007 - Aug. 2008
1 Jahr
München, Deutschland

Softwareentwickler

GAF AG

  • Software für Geoinformationssysteme, Backend-Serveranwendungen und Webkartendienste implementieren
Dez. 2006 - Feb. 2007
3 Monaten
München, Deutschland

Wissenschaftliche Hilfskraft

Ludwig-Maximilians-Universität München

  • Online-Lernregeln in neuronalen Netzen analysieren und implementieren
Feb. 2004 - Aug. 2004
7 Monaten
München, Deutschland

Praktikum als Softwareentwickler

Max Planck Institute for Physics

  • Anwendungen zur Visualisierung von Lernprozessen und Selbstorganisation in neuronalen Netzen (Varianten der Hebb-Regel, Hopfield-Netze, assoziatives Gedächtnis, Vektorquantisierung, Clustering, Boltzmann-Maschinen) für die Lehre implementieren
  • Skripte in Fortran, Perl und C++ entwickeln, um Experimente des Large Hadron Collider am CERN zu visualisieren
Aug. 2003 - Okt. 2003
3 Monaten
München, Deutschland

Praktikum als Softwareingenieur

Siemens

  • Implementierung eines Netzwerks aus biologisch inspirierten spikenden Neuronen

Zusammenfassung

  • Spezialisierung auf neuronale Netze und probabilistische Modelle für Sequenzen: Spracherkennung (ASR), Verarbeitung natürlicher Sprache (NLP), große Sprachmodelle (LLM) und generative KI, Zeitreihenprognosen, klassische maschinelle Lernverfahren und Statistik, Regression, Klassifikation, Clustering, Sequenz-zu-Sequenz-Modelle, überwachtes/ungewachtes Lernen, Anomalieerkennung, Betrugserkennung

  • Lösung schwieriger algorithmischer Probleme, Entwicklung neuer Architekturen, Erstellung von Prototypen

  • Training und Feinabstimmung von Modellen, Optimierung von Genauigkeit, Geschwindigkeit und Größe

  • Integration und Einsatz in der Cloud oder vor Ort (CPU, GPU, On-Device, Embedded)

  • Entwicklung in Python (15 Jahre), PyTorch (6,5 Jahre), TensorFlow (4 Jahre), Java, C++

  • Forschungserfahrung im maschinellen Lernen an Universitätslabors und Technologieunternehmen

  • Veröffentlichung wissenschaftlicher Artikel, Vorträge auf Konferenzen und Posterpräsentationen

  • Betreuung von Seminaren und Übungen zu maschinellem Lernen, neuronalen Netzen und statistischen Methoden in Universitätslaboren

Sprachen

Deutsch
Muttersprache
Englisch
Verhandlungssicher
Latein
Verhandlungssicher
Polnisch
Verhandlungssicher

Ausbildung

März 2013 - Apr. 2017

Technische Universität Graz

PhD-Studium · Maschinelles Lernen · Graz, Österreich

Sept. 2004 - Jan. 2005

Queen's University Belfast

Physik und Informatik · Belfast, Vereinigtes Königreich

Okt. 2000 - Sept. 2006

Ludwig-Maximilians Universität München

Diplom Physik · Physik · München, Deutschland

...und 1 Weitere
Sie suchen Freelancer?Passende Kandidaten in Sekunden!
FRATCH GPT testen
Weitere Aktionen