Israr A.

Senior KI-Evaluator im Maschinenbau

Taylor Lake Village, Vereinigte Staaten

Erfahrungen

Juli 2019 - Bis heute
6 Jahren 5 Monaten
Vereinigte Staaten

Senior KI-Evaluator im Maschinenbau

JLL

  • Leitung der KI-Bewertung zur Validierung mechanischer Ingenieurmodelle mithilfe von Python, NumPy, Pandas und SciPy zur Datenvorverarbeitung und Analyse von Simulationsdatensätzen aus ANSYS, COMSOL Multiphysics und ABAQUS.
  • Entwurf und Umsetzung von Evaluierungspipelines in TensorFlow und PyTorch sowie Export der Inferenz nach ONNX für plattformübergreifende Validierung und Benchmarking mit TensorBoard.
  • Umsetzung von Reproduzierbarkeit im Modelltraining und Experiment-Tracking mit MLflow und Weights & Biases, Einbindung von Metriken in Prometheus und Dashboards in Grafana zur SLA-Überwachung.
  • Aufbau containerisierter Evaluierungsumgebungen mit Docker und Orchestrierung von Batch-Evaluierungen und A/B-Tests mit Kubernetes und Azure DevOps-Pipelines.
  • Automatisierte Datenvalidierung und Schema-Prüfungen für Simulationsergebnisse mit Great Expectations, Parquet-Datalakes und Apache Arrow für performantes I/O.
  • Zusammenarbeit mit Simulationsteams zur Umwandlung von ANSYS-, LS-DYNA- und OpenFOAM-Ergebnissen in strukturierte HDF5-/Parquet-Datensätze, Analyse mit Pandas und Visualisierung in ParaView und Matplotlib.
  • Anwendung von Erklärbarkeitsmethoden (SHAP, LIME) auf ML-Surrogate, die auf MATLAB/Simulink- und SolidWorks-generierten Features trainiert wurden, zur Ursachenanalyse von Modellabweichungen und -verzerrungen.
  • Entwicklung von Leistungstest-Suites mit pytest und pytest-benchmark, integriert in GitHub Actions und CircleCI zur CI/CD-gesteuerten Freigabe von Modelländerungen.
  • Durchführung funktionsübergreifender Reviews mit Data Scientists und Maschinenbauingenieuren zur Abstimmung der KI-Ergebnisse auf ingenieurtechnische Toleranzen aus COMSOL- und ABAQUS-Szenarien.
  • Einrichtung von Inferenzhosting und Monitoring mit AWS SageMaker und Google Cloud AI Platform, Protokollierung über Prometheus und Tracing über gRPC-Endpunkte.
  • Gestaltung von RESTful APIs mit Flask/FastAPI und gRPC-Endpunkten zur Bereitstellung validierter Modellvorhersagen für Engineering-Tools und Dashboards.
  • Statistische Validierung und Unsicherheitsquantifizierung mit scikit-learn, SciPy und maßgeschneiderten Monte-Carlo-Pipelines zur Bewertung der Modellzuverlässigkeit unter variablen Belastungen.
  • Optimierung von Datenpipelines für große Simulationsarchive mit PostgreSQL für Metadaten, MongoDB für unstrukturierte Logs und CSV-/Parquet-Speicher für umfangreiche Artefakte.
  • Erstellung von Modelloptimierungsempfehlungen: Pruning mit TensorFlow Model Optimization, quantization-aware Training und Konvertierung nach ONNX zur Verbesserung der Latenz bei der Engineering-Inferenz.
  • Durchführung von Fehlereinfügungs- und Robustheitstests mit synthetischen Störungen aus SolidWorks-Parametrikstudien und OpenFOAM-CFD-Variationssätzen.
  • Dokumentation von Evaluierungsverfahren, Validierungskriterien und Abnahmetests in versionierten Artefakten in Git, mit Release-Automatisierung über Azure DevOps.
  • Betreuung von Junior Engineers bei der Integration von MATLAB-Simulationsergebnissen in ML-Trainingsdatensätze und Best Practices für reproduzierbare Experimente mit Jupyter-Notebooks und Weights & Biases.
  • Initiierung von Maßnahmen zur Standardisierung von Modellevaluierungskennzahlen (MAE, RMSE, R2, Kalibrierung, Reliability-Diagramme) über Teams hinweg und Einrichtung von Dashboards zur Verfolgung dieser KPIs mit Grafana.
Mai 2014 - Juni 2019
5 Jahren 2 Monaten
Vereinigte Staaten

Softwareentwickler

RealPage, Inc

  • Entwicklung von ML-Pipelines zur Analyse von Engineering-Daten mit Python, Pandas, NumPy und scikit-learn zur Validierung von Surrogatmodellen für mechanisches Verhalten.
  • Integration von Simulationsergebnissen aus ANSYS und ABAQUS in Trainingsdatensätze, Visualisierung und Prüfung möglicher Ausfallmodi mit ParaView und Matplotlib.
  • Erstellung von Prototyp-Neural-Surrogatmodellen in Keras und TensorFlow, Durchführung von Kreuzvalidierung und Export der Modelle nach ONNX für Interoperabilität.
  • Umsetzung von Experiment-Tracking und Modellversionierung mit MLflow sowie Nutzung von TensorBoard für Trainingsdiagnosen und Hyperparameter-Tuning.
  • Erstellung automatisierter Test-Suites mit pytest und Benchmarking der Inferenzleistung auf CPU/GPU mit pytest-benchmark und Docker-Containern.
  • Zusammenarbeit mit DevOps zur Bereitstellung von Modellevaluierungs-Workloads auf AWS SageMaker und in Container-Registries; Einsatz von Git und GitHub Actions für CI.
  • Durchführung statistischer Analysen und Unsicherheitsquantifizierung mit SciPy und Monte-Carlo-Sampling zur Bestimmung der Modellzuverlässigkeit für Anwendungsfälle im Ingenieurwesen.
  • Einsatz von MATLAB und Simulink zur Erzeugung gelabelter Datensätze und Verifikation von ML-Modellausgaben gegenüber physikbasierten Simulationen.
  • Anwendung von Erklärbarkeitstools (SHAP, LIME) zur Interpretation von Surrogatvorhersagen und Anleitung des Feature Engineering aus CAD-Exports (SolidWorks).
  • Dokumentation der Ergebnisse, Erstellung reproduzierbarer Jupyter-Notebooks und Erstellung technischer Berichte, die Modellgrenzen und empfohlene Abhilfestrategien aufzeigen.
Juli 2012 - Apr. 2014
1 Jahr 10 Monaten
Vereinigte Staaten

Softwareentwickler

Foreflight

  • Beitrag zu Engineering-Analysen und früher ML-Modellevaluierung mit Python, NumPy, Pandas und scikit-learn zur Analyse von Flug- und Maschinentelemetrie.
  • Verarbeitung von Zeitreihen- und Sensordaten mit SciPy und maßgeschneiderten Signalverarbeitungspipelines, Visualisierung der Ergebnisse mit Matplotlib und ParaView.
  • Aufbau und Validierung von Prototyp-Regressionsmodellen in scikit-learn und Keras, Bewertung der Leistung mittels Kreuzvalidierung und statistischer Kennzahlen (RMSE, MAE).
  • Arbeit mit CAD-basierten Eingabedaten aus SolidWorks für Feature-Extraktion und Vorbereitung simulationsbasierter Trainingssets aus ANSYS-Exports.
  • Verpackung von Evaluierungsskripten in Docker-Containern und Pflege des Codes in Git-Repositories mit Integration in CircleCI für automatisierte Tests.
  • Entwicklung einfacher REST-APIs mit Flask zur Bereitstellung von Modellvorhersagen an interne Tools und Dashboards.
  • Implementierung des Monitorings von Modellleistungs-Baselines und Drift-Erkennung mit benutzerdefinierten Skripten und integriertes Logging mit MongoDB.
  • Durchführung von Sensitivitätsanalysen und Szenariotests mit Monte-Carlo-Methoden und SciPy-Optimierern zur Validierung der Modellrobustheit.
  • Zusammenarbeit mit interdisziplinären Teams zur Abstimmung der ML-Modellausgaben auf Akzeptanzkriterien im Maschinenbau und Erstellung umfassender Validierungsberichte.
  • Pflege von Jupyter-Notebooks und interner Dokumentation, die reproduzierbare Evaluierungs-Workflows und Experiment-Artefakte dokumentieren, verfolgt mit MLflow.

Zusammenfassung

Erfahrener Engineering-Leiter mit mehr als 13 Jahren Erfahrung in der KI-unterstützten Validierung und Bewertung mechanischer Ingenieurmodelle.

Nachweisliche Erfolge bei der Durchführung gründlicher Modellbewertungen, Zuverlässigkeitstests und fachlich abgestimmter Optimierungen, die Modellfehler reduziert und Bereitstellungszeiten verkürzt haben.

Praktische Erfahrung mit branchenüblichen Toolchains für Simulation, ML-Bewertung und MLOps – als Brücke zwischen Maschinenbau und Data Science zur Entwicklung produktionsreifer KI-Systeme.

Sprachen

Englisch
Muttersprache

Ausbildung

University of Houston-Clear Lake

Bachelor of Science · Informatik · Houston, Vereinigte Staaten

Zertifikate & Bescheinigungen

AWS-Zertifizierung: Grundlagen des maschinellen Lernens

Zertifizierter SAFe® 5 Agilist

Microsoft-Zertifizierung: Azure Developer Associate

Sie suchen Freelancer?Passende Kandidaten in Sekunden!
FRATCH GPT testen
Weitere Aktionen