Simone Amoroso
Leiter Technologie & CISO
Erfahrungen
Leiter Technologie & CISO
AI Quality and Testing Hub
- Leitender Entwickler von Prof. Valmed, dem ersten LLM-basierten Medizinprodukt (mit RAG auf einem medizinischen Korpus von über 2,5 Mio. Dokumenten), das eine CE-Zertifizierung erhalten hat.
- Entwarf und implementierte eine Cloud-native MLOps-Infrastruktur für die Energievehandels-Analytics-Abteilung von ENBW, wodurch die skalierbare Bereitstellung und Überwachung von Prognosemodellen ermöglicht wurde.
- Entwickelte End-to-End-Test- und Validierungs-Frameworks für KI/ML-Systeme und stellte so Qualität, Konformität und Robustheit in kritischen und regulierten Anwendungen sicher.
- Führte professionelle Schulungen zu KI-Tests, EU-Regulierungsrahmen und Qualitätssicherung für produktive KI-Systeme durch.
Wissenschaftler im CMS-Experiment und Dozent an der Uni Wuppertal
DESY (Deutsches Elektronen-Synchrotron)
- Leitete eine 50-köpfige Gruppe bei der Entwicklung von zehn Python-Datenanalysen für begutachtete Veröffentlichungen unter Einsatz verschiedener statistischer (Klassifikation, Regression, Hypothesentests) und Machine-Learning- (BDT, Random Forest, DNN) Techniken.
- Führte Deep-Neural-Network-Algorithmen in TensorFlow ein und optimierte sie zur Neu-Gewichtung von Monte-Carlo-Simulationsparametern, wodurch der Bedarf an (teuren) simulierten Ereignissen in der Kollaboration um das Fünffache reduziert wurde.
- Trainierte generative KI-Modelle in PyTorch, um teure Monte-Carlo-Simulationen präzise nachzubilden.
- Leitete die Entwicklung des Open-Source-C++-Codes xFitter für nichtlineare Regressionsanalysen.
- Dozent für Teilchenphysik und Datenanalyse in Universitätskursen und Physikschulen.
- Betreute über 20 Studierende (vom B.Sc. bis PostDoc) in Datenanalyseprojekten.
Senior Research Fellow im ATLAS-Experiment
DESY (Deutsches Elektronen-Synchrotron)
- Führte eine statistische Kombination von W-Boson-Massenmessungen durch, für die ich ein Python-Tool zur Untersuchung von Unsicherheitsmodellen und Korrelationen entwickelte.
- Leiter der Physics Modeling Group und Schnittstelle zwischen Datenanalyseteams und Management, um die optimale und effiziente Verteilung von Cloud- und HPC-Rechenressourcen (∼300 000 CPU-Kerne) zu gewährleisten.
- Definierte die langfristige Rechenstrategie des Experiments (CPU- und GPU-Bedarf).
- Leitete das 150-köpfige Team bei der Inbetriebnahme, Validierung und Produktivsetzung neuartiger theoretischer Modelle und Monte-Carlo-Simulationen.
Senior Research Fellow im ATLAS-Experiment
CERN (European Organization for Nuclear Research)
- Leiter eines vierköpfigen Teams, das ich zum fristgerechten Abschluss von zwei Datenanalyse-Publikationen in Python und C++ führte.
- Verbesserung der Effizienz der Echtzeit-C++-Datenselektionsalgorithmen des ATLAS-Experiments, wodurch eine Leistungssteigerung von 30 % erreicht wurde.
- Optimierte Parameter theoretischer Modelle mittels linearer Regressionsanalyse mit 100 Parametern und über 50 Eingangsdatasets (mehr als 10 000 Messungen) und dokumentierte die Ergebnisse in mehreren begutachteten Publikationen.
Dr. rer. nat. in Physik, tätig im ATLAS-Experiment
Albert-Ludwigs Universität Freiburg
- Entwickelte eine neuartige, modellunabhängige Global-Suche, einen unüberwachten Ansatz, um alle vom Large Hadron Collider erzeugten Hochenergie-Ereignisse (105 Regionen in über 700 Verteilungen) zu klassifizieren und gleichzeitig zu analysieren, um mögliche Abweichungen von theoretischen Modellen zu prüfen.
- Entwickelte 'Professor', ein Python-Programm zur Hyperparameter-Optimierung für Probleme mit teuer zu evaluierenden Zielfunktionen, erweiterte den Code um den Umgang mit systematischen Unsicherheiten und Korrelationen und implementierte einen Support Vector Regressor zur Parameteroptimierung.
Zusammenfassung
Physiker mit Promotion und einem Jahrzehnt praktischer Erfahrung in Data Science, KI und wissenschaftlichem Rechnen. Ich habe an allem gearbeitet, von statistischer Modellierung und Simulation bis hin zu Machine Learning und groß angelegter Datenverarbeitung in risikoreichen, großen Umgebungen; von den großen Teilchendetektoren am CERN bis zu kritischen Anwendungen im Gesundheitswesen und Energiesektor. Ich habe sowohl technische Führungsaufgaben als auch sehr praktische Rollen übernommen, mit Erfahrung von der frühen Konzeption und Prototypenentwicklung bis zur Umsetzung und großflächigen Produktionsbereitstellung. Ich blühe auf, wenn ich an schwierigen Problemen in schnellen Umgebungen arbeite, besonders wenn viel auf dem Spiel steht und die Arbeit sowohl Fokus als auch Kreativität fordert.
Fähigkeiten
- Programmierung: Python (Numpy, Scipy, Pandas, Matplotlib), C++, Sql, Fortran, Bash
- Maschinelles Lernen: Pytorch, Tensorflow, Keras, Pymc, Scikit-learn, Langchain
- Anwendungen: Ms Office, Ms Excel/vba, Ms Power Bi
- Tools: Aws/azure, Github/gitlab, Cmake, Jupyter, Jira, Docker
- Soft Skills: Problemlösung, Projektmanagement, Strategisches Denken, Kommunikation
Sprachen
Ausbildung
Albert-Ludwigs Universität Freiburg
Dr. rer. nat. in Physik, tätig im ATLAS-Experiment · Physik · Freiburg im Breisgau, Deutschland
University of Rome Tor Vergata
M.Sc. in Physik · Physik · Rom, Italien · 110/110 mit Auszeichnung
University of Rome Tor Vergata
B.Sc. in Physik · Physik · Rom, Italien · 110/110 mit Auszeichnung
Zertifikate & Bescheinigungen
CE-Zertifizierung
Ähnliche Freelancer
Entdecken Sie andere Experten mit ähnlichen Qualifikationen und Erfahrungen.