Lorenzo Barraco
Senior KI-Ingenieur
Erfahrungen
Senior AI Engineer
Beam AI
- Entwurf und Umsetzung von Datenpipelines, die monatlich über 500 Unternehmens-Workflows verarbeiten, sowie Einführung statistischer Überwachung und Anomalieerkennung, um Betriebsineffizienzen zu identifizieren und datengetriebene Geschäftsoptimierung zu ermöglichen
- Analyse von umfangreichen Unternehmensdatensätzen zur Identifizierung von Automatisierungspotenzialen in Finanzen, HR und dem operativen Geschäft, wobei Erkenntnisse geliefert wurden, die die Betriebskosten um 35% senkten und die Teamproduktivität um das Dreifache steigerten
- Entwurf und Implementierung von RAG-Pipelines mit semantischer Suche über mehr als 10.000 Unternehmensdokumente, dabei 92% Genauigkeit durch fortgeschrittenes Feature Engineering und Einbettungsoptimierung erreicht
- Entwicklung von Echtzeit-Analytics-Dashboards zur Überwachung der Leistungskennzahlen von KI-Agenten, Analyse von Verhaltensdaten zur Verbesserung der Modelle und Erreichung einer Automatisierungsquote von 88% durch kontinuierliche A/B-Tests
- Aufbau einer umfassenden MLOps-Infrastruktur mit Azure ML, MLflow und Weights & Biases inklusive automatischem Experiment-Tracking, wodurch die Bereitstellungszyklen von Modellen von 3 Wochen auf 4 Stunden verkürzt wurden
- Entwicklung von produktionsreifen KI-Agenten mit GPT-4, Claude 3.5 Sonnet und Gemini Pro durch fortgeschrittenes Prompt Engineering und Funktionsaufrufe für Unternehmens-Automatisierungsworkflows
- Integration von Monitoring und Kostenoptimierung mit Helicone und LangSmith, wodurch die Betriebskosten für LLMs um 40% reduziert wurden durch statistische Analyse von Token-Nutzungsmustern und intelligente Caching-Strategien
- Aufbau skalierbarer Backend-Microservices mit FastAPI und Azure Functions, die täglich über 8 Millionen Automatisierungsanfragen mit 99,9% Verfügbarkeit bewältigen
- Leitung technischer Architekturgespräche mit mehr als 5 Fortune-500-Kunden und Umsetzung komplexer Geschäftsanforderungen in datengetriebene KI-Lösungen
Senior AI Engineer
COMPUTD
- Bewertung von monatlich über 500.000 Geschäftsdokumenten zur Entwicklung intelligenter Dokumentenverständnissysteme mit BERT, RoBERTa und LayoutLM durch Anwendung statistischer NLP-Techniken und Erreichung einer Extraktionsgenauigkeit von 94% für europäische Unternehmenskunden
- Durchführung umfassender Datenanalysen über mehrsprachige Datensätze in 4 Sprachen, Entwicklung von Sentiment-Analyse- und Entity-Recognition-Pipelines mit 91% Genauigkeit, was Branchenstandards um 8% übertrifft
- Entwicklung und Bereitstellung von Empfehlungssystemen durch Collaborative Filtering und neuronale Netze, Steigerung der Conversion-Raten um 28% und Generierung von über 2 Mio. $ zusätzlichem Umsatz durch datengetriebene Personalisierung
- Aufbau von Frage-Antwort-Systemen mit BERT und Sentence-BERT in Kombination mit FAISS, Ermöglichung von Abfragen in unter einer Sekunde über mehr als 5 Mio. Dokumente mit einer Antwortrelevanz von 89% durch fortgeschrittene Merkmalsextraktion
- Durchführung explorativer Datenanalysen zu Kundeninteraktionsmustern, Identifikation wichtiger Geschäftskennzahlen und Erstellung von Dashboards für das Management, die die Produktstrategie informierten und die Nutzerbindung um 22% steigerten
- Einführung von MLOps-Best-Practices mit MLflow, DVC und Kubeflow auf AWS, Implementierung automatisierter Retraining-Pipelines, die die Modellleistung durch systematische Experimente um 15% verbesserten
- Optimierung der Modellinferenz mit ONNX Runtime und TorchServe auf AWS, Erzielung einer 3,5-fachen Geschwindigkeitserhöhung und 50% Kostenreduktion durch Performance-Profiling und statistische Analyse
- Entwurf und Implementierung von Backend-Services mit FastAPI und Django sowie PostgreSQL und Redis, Aufbau skalierbarer APIs mit über 10.000 Anfragen pro Minute für Echtzeit-NLP-Inferenz
- Zusammenarbeit mit mehr als 20 Unternehmenskunden zur Entwicklung ganzheitlicher Data-Science-Lösungen und Sicherstellung einer Kundenbindungsrate von 95% durch kontinuierliche datengetriebene Erkenntnisse
AI Engineer | Data Scientist
Allmatics
- Erstellung von prädiktiven Analysemodellen mit XGBoost, LightGBM und Random Forests für Nachfrageprognosen, Steigerung der Vorhersagegenauigkeit um 32% und Reduzierung der Lagerhaltungskosten um 800.000 $ jährlich durch ausgeklügeltes Feature Engineering und Ensemble-Methoden
- Analyse groß angelegter Datensätze mit Apache Spark, Pandas und SQL auf AWS EMR, Verarbeitung von über 50 TB Daten pro Monat und Gewinnung von Erkenntnissen, die 1,5 Mio. $ Kosteneinsparungen durch umfassende statistische Analysen ermöglichten
- Durchführung explorativer Datenanalyse und Hypothesentests zur Identifizierung wesentlicher Treiber des Kundenverhaltens, Entwicklung von Segmentierungsmodellen für zielgerichtete Marketingstrategien und Steigerung des ROI um 45%
- Entwicklung von NLP-Lösungen für Textklassifikation und Named Entity Recognition mit LSTM, GRU und BERT-Modellen, Verarbeitung von über 100.000 Dokumenten pro Monat mit einem F1-Score von 87%
- Bereitstellung von Computer-Vision-Systemen mit CNNs auf Basis von ResNet, EfficientNet und YOLO, Erreichung einer Erkennungsgenauigkeit von 96% und Reduzierung der manuellen Inspektionszeit um 75% durch datengetriebene Qualitätskontrolle
- Umsetzung von MLOps-Workflows mit Docker, Jenkins und Kubernetes auf GCP und AWS, Einrichtung von CI/CD-Pipelines, die die Bereitstellungszeit von Modellen um 70% verkürzten und die Zuverlässigkeit auf 99,5% erhöhten
- Entwicklung von Backend-APIs mit Flask und Django REST Framework sowie MySQL und MongoDB, Erstellung von Microservices für ML-Modell-Deployments mit über 5.000 Anfragen pro Minute
- Durchführung technischer Workshops für mehr als 10 Kundenteams, Entwurf datengetriebener Lösungsarchitekturen und Mentoring von 5 Junior Engineers in Data-Science-Best-Practices
ML Developer | Data Analyst
Byteal Ltd
- Entwicklung von Machine-Learning-Modellen mit Random Forests, Gradient Boosting und logistischer Regression, Erreichen einer Vorhersagegenauigkeit von 84% durch strenge Merkmalsauswahl und Kreuzvalidierungstechniken
- Aufbau von Zeitreihenprognosesystemen mit ARIMA, Prophet und Ensemble-Methoden für Nachfragevorhersagen, Steigerung der Planungsgenauigkeit um 40% und Reduzierung von Lieferengpässen um 60% durch statistische Modellierung
- Implementierung von ETL-Pipelines mit Python, SQL und Pandas zur Verarbeitung von über 2 Millionen Datensätzen täglich aus verschiedenen Quellen und Gewährleistung einer Datenqualität von 99,7% durch umfassende Validierungs- und Bereinigungsprozesse
- Erstellung von Datenvisualisierungs-Dashboards mit Matplotlib, Seaborn und Tableau für mehr als 8 Unternehmenskunden, Präsentation umsetzbarer Erkenntnisse für C-Level-Stakeholder durch überzeugendes Data Storytelling
- Durchführung umfassender statistischer Analysen, einschließlich Regressionsmodelle, Kohortenanalyse und Survival-Analyse, zur Unterstützung der Geschäftsstrategie und Steigerung der operativen Effizienz um 25%
- Optimierung von Data-Analytics-Workflows durch Automatisierungsskripte und geplante Jobs, Reduzierung manueller Reportzeiten um 80% und Bereitstellung von Live-Business-Intelligence
- Zusammenarbeit mit Fachbereichen zur Definition von KPIs, Gestaltung von A/B-Tests und Messung der Auswirkungen datengetriebener Initiativen auf Geschäftsergebnisse
Zusammenfassung
Senior Data Scientist mit über 9 Jahren Erfahrung bei der Bereitstellung datengetriebener Erkenntnisse und fortschrittlicher Analyse-Lösungen in Unternehmensumgebungen. Spezialisierung auf Predictive Modeling, maschinelles Lernen, statistische Analysen und Daten-Pipeline-Engineering, mit Fachwissen von klassischer Data Science bis hin zu modernen Generative-AI-Anwendungen. Erfolgreiche Transformation von Geschäftsprozessen durch datengetriebene Entscheidungsfindung für Fortune-500-Unternehmen und Scale-ups durch die Kombination tiefgehender analytischer Expertise mit produktionsreifem ML-Engineering und skalierbarer Backend-Entwicklung.
Fähigkeiten
- Data Science & Analytics: Prognosemodellierung, Statistische Analysen, Zeitreihenprognosen, A/b-tests, Hypothesentests, Feature Engineering, Nachfrageprognosen, Kundenanalysen
- Programmiersprachen: Python, R, Sql, Java, Javascript, Scala
- Ml/dl-frameworks: Scikit-learn, Xgboost, Lightgbm, Pytorch, Tensorflow, Transformers, Hugging Face, Spacy, Nltk, Keras
- Datenverarbeitung & Etl: Pandas, Numpy, Apache Spark, Apache Kafka, Pyspark, Dask, Polars, Apache Beam, Sql
- Visualisierung & Bi: Matplotlib, Seaborn, Plotly, Tableau, Power Bi, Jupyter Notebooks
- Mlops & Devops: Mlflow, Weights & Biases, Dvc, Docker, Kubernetes, Apache Airflow, Github Actions
- Cloud-plattformen: Aws (Sagemaker, Emr, S3, Lambda, Ec2), Microsoft Azure (Azure Ml, Functions), Google Cloud Platform (Gcp)
- Datenbanken: Postgresql, Mysql, Mongodb, Redis, Sqlite, Dynamodb, Cassandra
- Ki/genai: Langchain, Llamaindex, Openai-apis, Rag, Vektor-datenbanken (Pinecone, Faiss, Weaviate)
- Optimierung & Deployment: Onnx, Tensorrt, Torchserve, Tensorflow Serving, Modellquantisierung, Vllm
- Backend-frameworks: Django Rest Framework, Node.js, Express.js, Celery, Sqlalchemy, Pydantic
Sprachen
Ausbildung
Sapienza-Universität Rom
Bachelorabschluss in Informatik · Informatik · Rom, Italien
Ähnliche Freelancer
Entdecken Sie andere Experten mit ähnlichen Qualifikationen und Erfahrungen.