Jeanne (Paulie) Yap
Praktikant im Prozessingenieurwesen
Erfahrungen
Process Engineering Intern
Procter & Gamble
- Selbständig automatisierte Validierungs-Workflows mit Python initiiert und implementiert, wodurch manuelle Bearbeitung um 58% reduziert und Effizienz gesteigert wurde
- Ein Machine-Learning-Modell zur synthetischen Fehlererzeugung entwickelt, um Ausfallzeiten und Produktionskosten zu senken; lokal und über Databricks sowie Azure AI Factory bereitgestellt
- Ein kleines Datenset mit Bilddaten von Produktionslinien genutzt und dieses Datenset durch Training von Modellen wie cycleGAN und pix2pix erweitert
- Die Linux-basierte Entwicklungsumgebung für das Training von 3D-Modellen aufgebaut und optimiert; Reproduzierbarkeit über GitHub sichergestellt
- Technische Erkenntnisse vor funktionsübergreifenden Teams (Ingenieure, QA, Projektmanager) präsentiert und so die Abstimmung der ML-Lösungen an betriebliche Anforderungen sichergestellt
Master Thesis - Fruits 3D Reconstruction and Color Prediction
University of Bonn
- Bedingte Denoising Diffusion Probabilistic Models in Python und C++ zur Struktur- und Farbberechnung aus Teildaten entwickelt, basierend auf Phänotypisierungs-Datensätzen und unter Berücksichtigung von Verdeckungen und unvollständigen Pflanzen-Scans
- Pipelines automatisiert, Workflows containerisiert (Docker) und Code/Versionierung verwaltet (Git)
- Benchmark-Ergebnisse erreicht und hohe Reproduzierbarkeit über alle Experimente hinweg nachgewiesen
Hackathon Participant
HerHackathon
- Ein KI-basiertes Bildvergleichstool mit Selenium und APIs entwickelt; Dashboards in Power BI und Prototypen in Figma entworfen
- Eine Demo-Lösung für Stakeholder von ALDI Süd präsentiert und dabei umsetzbare Erkenntnisse und technische Machbarkeit demonstriert
Geoinformation System Developer – Geoinformation Management in Interdisciplinary Research
University Project
- Ein Geoinformationssystem erstellt, das verschiedene Datensätze mit Java, PostgreSQL, SQL, XML/GML, WFS und ontologiebasierten Wissensgraphen integriert
Master’s Project – Open World Panoptic Segmentation of Traffic Participants
University of Bonn
- 2D-Algorithmen auf 3D-LiDAR-Punktwolken angepasst und Platz 2 in einem öffentlichen Benchmark erreicht
- Eine durchgängige automatisierte Trainingspipeline in Python entwickelt und Ergebnisse regelmäßig Professoren und Doktoranden vorgestellt
Werkstudent (Marketing und Kommunikation)
DHL Consulting
- Aufbau eines datengetriebenen Analyse-Frameworks, Steigerung der LinkedIn-KPIs um 116 % und der Interaktionen um 300 % durch multikanaliges Tracking (Hotjar, Google Tag Manager)
- Erhöhung der Beitragsfrequenz um 50 % durch strategische, datenbasierte Content-Planung
- Erstellung von Dashboards und umsetzbaren Erkenntnissen aus Marketingdaten zur Optimierung der Kampagnenleistung über alle Teams
BoVW-Projekt – Bildähnlichkeit mittels klassischem maschinellen Lernen
Universitätsprojekt
- Entwicklung einer klassischen ML-Pipeline zur Bildähnlichkeit und Automatisierung der Builds mit Makefiles und GitHub Actions zur Gewährleistung der Reproduzierbarkeit
Technischer Support für Software- und Cloud-Anwendungen
Accenture
- Gewährleistung der Betriebsfähigkeit cloudbasierter Anwendungen durch Fehlerbehebung und Echtzeit-Problembehandlung
Praktikant im Innovationsbereich
Lear Corporation
- Entwurf eines innovativen Autositzes für autonome Fahrzeuge, Zusammenarbeit mit funktionsübergreifenden Teams zur Erstellung von Prototypen und Validierung neuer Designs
Leiter des Elektronikkomitees
University of San Carlos
- Leitung der Elektronik bei Team Lahutay beim Shell Eco Marathon, Verantwortung für Verkabelung, Steuerungssysteme und Sensoren, um eine erfolgreiche Teilnahme am Wettbewerb zu gewährleisten und technische sowie Führungskompetenzen zu demonstrieren
Zusammenfassung
Data Engineer mit umfassendem Hintergrund in Machine Learning, Datenpipelines, Cloud-Deployments und Analytics. Erfahren in Python, SQL, C++, Databricks und ETL/ELT-Workflows sowie im praktischen Umgang mit CI/CD, Docker und versionskontrollierten Pipelines. Versiert in der Prozessoptimierung, Automatisierung von Workflows und der Bereitstellung umsetzbarer Erkenntnisse für funktionsübergreifende Teams. Nachgewiesene Fähigkeit, komplexe Daten in geschäftlichen Mehrwert umzusetzen.
Fähigkeiten
Experte / Fortgeschrittene Kenntnisse (Täglicher Einsatz, Anspruchsvolle Problemlösung): Python, Sql, R, Pandas, Numpy, Matplotlib, Seaborn, Scikit-learn, Pytorch, Tensorflow, Opencv, Open3d, Slam, Photogrammetrie, 3d-lidar-verarbeitung, Linux, Bash, Git
Mittlere / Praktische Erfahrung (Projekte, Praktika, Lehrveranstaltungen): C++, Matlab, C, Java, Javascript, Postgresql, Mysql, Spark, Pyspark, Knime, Docker, Ci/cd, Etl/elt, Rest-apis, Gans, Vaes, Diffusionsmodelle, Ros
Grundkenntnisse / Erste Erfahrungen (Akademisch Oder Explorativ): Azure, Gcp, Kubernetes, Llms (Bert, Gpt), Hugging Face Transformers
Soft Skills: Analytisches Denken, Data Storytelling, Problemlösung, Projektmanagement, Anpassungsfähigkeit
Sprachen
Ausbildung
Rheinische Friedrich-Wilhelms-Universität Bonn
Master of Science in Geodätische Ingenieurwissenschaften, Schwerpunkt Mobile Sensortechnik und Robotik · Geodätische Ingenieurwissenschaften · Bonn, Deutschland
University of San Carlos
Bachelor of Science in Elektro- und Kommunikationstechnik, Schwerpunkt Mikroelektronik und Informationssysteme · Elektro- und Kommunikationstechnik · Cebu City, Philippinen
Zertifikate & Bescheinigungen
Google Cloud: Cloud-Grundlagen
Microsoft Azure: Grundlagen
Ähnliche Freelancer
Entdecken Sie andere Experten mit ähnlichen Qualifikationen und Erfahrungen.