Meine Verantwortung: Technische Integration aller Teilprojekte zu einem Produkt, Definition der Schnittstellen, Basiskomponenten einer Cloud inklusive Hardware, technische Architektur der IABG-Basis.
Entwicklung einer Cloud-Management-Plattform (CMP).
Die CMP kann eine private/mixed Cloud beliebiger Komplexität anhand einer textuellen Beschreibung per Klick oder interaktiv erstellen.
Die CMP umfasst auch den kompletten Hardware-Management-Zyklus. Als Basis werden Kubernetes, OpenStack und Hadoop eingesetzt.
Die Management-Schicht enthält Harbor, Gitea, Longhorn, Keycloak, Rancher und Jenkins, die automatisch konfiguriert sind.
Die Private Cloud kann beliebige Kunden-Workloads ausführen, darunter die vollständige Hadoop-Schicht mit HDFS, Spark, MapReduce, Mesos, HBase und rund 20 weiteren ML/DL-Technologien.
Hadoop-Worker-Cluster können auch ohne Kubernetes auf Bare Metal oder einfacher Hardware automatisch installiert werden.
OpenStack mit Nova, Neutron, Ironic, Swift, Cinder und Ceph. Entwicklung einer Java-Anwendung Rudi: SOAP, REST, Container, DB.
AI/ML/NLP/Hadoop/BigData Architekt, GCP/Azure Architekt, Java/Spring/DevOps Architekt
Deutsche Bank AG
Umsetzung von Anforderungen im Bereich NLP und Zeitreihen in einem Hadoop-Cluster mit Petabytes an Daten.
Dazu Entwicklung von MapReduce-, Spark-, Pig- und Hive-Tasks in Scala, Python und Java.
Ich habe verschiedene Informationen (Nachrichten, Artikel, Forenbeiträge, Zeitreihen) über diverse Kanäle (Kafka, Flume, Web, HDFS SequenceFiles) gesammelt und mit MapReduce/Spark strukturiert und verarbeitet.
Die Textinformationen waren hierarchisch in Solr abgelegt, Zeitreihendaten in HBase.
Außerdem habe ich an einem PoC-Projekt mitgewirkt, bei dem Transformer-/Encoder-/Decoder-Architekturen (BERT, GPT-2) verwendet wurden, um die Daten mit LLM zu analysieren.
Wir haben HuggingFace genutzt, um die vortrainierten BERT- und GPT-2-Modelle in PyTorch zu erweitern.
Unter anderem habe ich Klassifizierungen mit mDeBERTa-* durchgeführt, Segmentierung mittels PELT (ruptures) und Zeitreihenanalyse mit DTW.
Automatisierung der Auslieferung von S/4HANA-Cockpit-Software im SAP-Cloud-Umfeld.
Das Cockpit fasst Code von vielen unabhängigen (teilweise externen) Entwicklern zusammen und benötigt erweiterte Codequalitätsanalysen/-kontrollen, auch mithilfe KI-gestützter Test- und Qualitätsverfahren.
Mit LLM (vortrainierter LLaMA-Transformer mit PEFT aus HuggingFace) wurde versucht, Codeabschnitte zu identifizieren, die potenziell schlechte Qualität aufweisen, ohne dass die herkömmlichen Qualitätschecks sie finden.
Hybris/SAP-Commerce-Architekt, ML-gestützter Kaufempfehlungsberater, SAP ECC BW-Berater, Java/Spring-Architekt
Deichmann AG
Weiterentwicklung eines Webportals auf SAP Commerce/SAP ECC-Basis.
SAP-Commerce-Architekturberatung und Umsetzung.
Schnittstellen zu SAP ECC und weiteren Systemen.
Testkonzept für Entwicklertests erarbeitet und umgesetzt.
Backoffice-Erweiterungen.
Recommender-Engine-Proof-of-Concept.
Aus den Daten, welche Kunden welche Waren kaufen/sich dafür interessieren/Clickstreams, wurde dem Kunden ein Produktkarussell mit den Artikeln angezeigt, die er potenziell kaufen könnte (Top-N-Empfehlungen). Dabei wurde aus den vorhandenen Daten eine Sparse-Matrix erstellt, die dann als Trainingsdaten für eine RBM (Boltzmann-Verteilung) genutzt wurde.
Zum Approximieren fehlender Daten wurde ein Gibbs-Sampler verwendet.
Zur Implementierung kam TensorFlow ohne Keras zum Einsatz.
Hybris/SAP-Commerce-Architekt, SAP ECC BW MM SD-Berater, AI/ML/NLP/BigData-Architekt, Java/Spring/DevOps-Architekt
Groz-Beckert KG
Entwicklung neuer Features für Hybris OCC und Angular in einem Scrum-Team.
Einführung eines Hybris-Testframeworks.
Entwicklung von Hybris-Datahub-Extensions und Hybris-Extensions zur weiteren Datenextrahierung und Analyse mittels ML/DL-Algorithmen.
Analyse der Daten im Datahub, Implementierung der ML/DL-Algorithmen (KI-gestützte Kaufempfehlung, Sentimentanalyse in verschiedenen Sprachen – darunter Chinesisch, Japanisch und Koreanisch –, SEO, SOLR-Strukturen und -Suchen).
ML-basierte Umsatzprognosen (Regression) für Waren sowie die damit verbundene Produktionsplanung.
Hybris/SAP-Commerce-Berater, SAP ECC BW-Berater, DevOps/ML/DL-Architekt/Entwickler
Home 24
Meine Aufgaben umfassten Schulungen, Wissenstransfer, Seminare und Gruppenschulungen zu Hybris/Datahub-Entwicklung, Konfiguration, Wartung, Schnittstellen zu Datahub und SAP (Austausch von IDocs), Etablierung von CI/DevOps, Einrichtung der Arbeitsumgebungen für die lokalen Entwickler, Fehleranalyse und -behebung, Einführung der Testinfrastruktur (Unit, Integration, Abnahme), Umsetzung der Anforderungen zusammen mit dem neu aufgebauten Team sowie Einführung ML/DL-gestützter Datenanalyse und Datenbereinigung für mehrere Tausend Lieferanten.
Technologien: Hybris, SAP Commerce, HANA, Spring, Groovy, AWS, Java, Microservices, Jenkins, Docker, Kubernetes, Python, etc.
Aug. 2018 - Feb. 2019
7 Monaten
Hybris Chefarchitekt, SAP ECC BW MM SD Consulting, Java/Spring/DevOps Architekt
Testo AG
Das Unternehmen setzte mehrere Hybris-Shops ein, unter anderem einen großen internationalen Hybris-Shop (B2B + B2C) für 14 Länder (darunter DE, FR, US, UK, CN usw.); alle zwei Monate wurde ein neues Land angebunden.
Außerdem wurde SAP Commerce (Hybris) als globale Marketing-Plattform für Länder genutzt, die noch keinen Shop hatten (WCMS, Cockpits, BO usw.). Zu meinen Aufgaben gehörten außerdem die Überprüfung und Optimierung der bestehenden Hybris-Architektur auf Basis des Hybris Accelerators, die Anbindung neuer Technologien wie CPQ, China Accelerator, Data Hub, die Optimierung der Geschäftsprozesse, Performanzverbesserungen und Systemoptimierungen (teilweise mit SAP PS).
Unter anderem verantwortete ich die Steigerung der Entwicklereffizienz, interne Schulungen, Beratung interner Entwickler, Wissenstransfer, Hands-On-Entwicklung in allen Hybris-Bereichen und Pair-Programming mit den internen Entwicklern.
Ich habe in dem Unternehmen die typischen DevOps-Prozesse verbessert oder eingeführt, unter anderem CI/CD mit Jenkins, Ansible, Docker, Kubernetes, Qualitätssicherung mit Sonar, Abnahmetestumgebungen für die automatische Qualitätskontrolle mit JUnit Tenant und mehr.
Im Bereich Datenverarbeitung habe ich ML-/DL-Algorithmen eingesetzt, um typische Aufgaben einer E-Commerce-Landschaft zu erfüllen: Produktempfehlungen, Produktionsplanung, mehrsprachiges NLP (darunter Chinesisch) – Informationsstrukturierung, Speicherung und Retrieval, Kundenrezensionsbearbeitung in vielen Sprachen und Analyse des Kundenverhaltens auf der Webseite.
Hybris Fullstack-Developer/Architekt, SAP ECC BW, KI/ML/NLP/Big Data-Architekt
ANWR Group
Zu meinen Aufgaben gehörte die Umsetzung der Anforderungen für einen Hybris-B2B-Shop.
Dazu gehörte die Erstellung von Hybris-Services/Facades/Java-DAOs, Flexible-Search-Abfragen, Cronjobs, Solr-Konfigurationen, Restrictions, Impexes, Controllern/RestControllern, JSPs, Bootstrap-Elementen, jQuery und React.
Im DevOps-Bereich war ich verantwortlich für den Entwurf, die Architektur, Implementierung und Einführung einer vollautomatisierten Umgebung für Hybris-Abnahme-Tests, basierend auf dem Selenium/FitNesse-Framework zur Verwaltung und Ausführung der Tests.
Dazu zählte auch die Hybris-Integrationsschicht für die Tests, die eine einfache Ausführung von Flexible-Search-Abfragen, SQL-Abfragen (inklusive DDL/DML) und Groovy-Skripten direkt auf dem Hybris-Testserver sowie das Impex-Scripting ermöglicht.
Das gesamte Hybris-System wurde dockerisiert, um verschiedene Serverzustände auch für Tests nutzen zu können.
Die Orchestrierung mehrerer Docker-Container (Hybris, MySQL, Solr, Selenium) mittels docker-compose wurde implementiert, um eine reibungslose und reproduzierbare Testausführung zu gewährleisten.
Außerdem wurden die Schnittstellen zu SAP ERP implementiert und weiterentwickelt.
Im Bereich Datenverarbeitung wurden ML-Algorithmen zur Analyse der Nachfrage implementiert.
Dabei wurden komplexe Zusammenhänge zwischen Produkten berücksichtigt und mittels Solr suchbar gemacht.
Apr. 2017 - Okt. 2017
7 Monaten
Hybris Developer/Architekt
B/S/H (Bosch/Siemens/Haushaltsgeräte)
Implementierung von Change Requests in einem Online-Shop.
Im Rahmen dieses Projekts wurden kundenspezifische Anforderungen an einem Hybris-System umgesetzt: Modelling, Impex, User-Rechte, Flexible Search, Services, Facades, Data Objects, Java, Spring MVC, JSPs, HMC, Cockpits, Type System usw.
Sept. 2015 - Aug. 2018
3 Jahren
Salzburg, Österreich
Hybris/SAP-Commerce-Architekt, SAP ECC BW MM SD Consulting, KI/ML/NLP/Big Data-Architekt, Java/Spring/DevOps-Architekt, ML-
Spar AG
Analyse von Performance-Problemen in einer Live-Shop-Umgebung.
Optimierung von Solr-Suchen/Indexern, Flexible-Search-Abfragen, Katalog-Updates, Cronjobs usw.
Optimierung von Java-Prozessen, WebLogic, Threads, Untersuchung von Memory-Dumps, Cluster-Zusammenarbeit, Netzwerk, Linux und vielem mehr.
PIM-Automatisierung.
Im Rahmen dieses Projekts wurde die tägliche Arbeit eines PIM-Spezialisten automatisiert.
Es wurden Jenkins-Pipelines erstellt, die nach jeder Auslieferung das PIM-System initialisierten und mit allen Informationen (Kataloge, Kategorien, Produkte, Preise usw.) neu befüllten.
Einführung einer ML-gestützten Recommender Engine.
Diese erfolgte in zwei Stufen.
Zuerst wurde Content-Based Filtering eingeführt.
Dafür wurde mittels KNN und Kosinus-Ähnlichkeit (Cosine Metric) das Kundeninteresse an bestimmten Produkten vorhergesagt.
Dabei wurden die anonymisierten Kundenprofile auf Ähnlichkeit untersucht.
In Phase zwei wurden aus allen Produktkategorien mittels PCA wenige synthetische Metakategorien entsprechend tatsächlicher Kundeninteressen gefunden.
Danach wurden mittels SVD zwei Matrizen ermittelt, die die Zuordnungen Metakategorie-Kunde und Metakategorie-Produkt am besten beschreiben konnten.
Durch die Kombination dieser beiden Matrizen wurde die gewünschte Produktempfehlung erzeugt.
Außerdem wurden die Clickpfade der Kunden rekonstruiert und mittels RNN analysiert.
Technologien: Java, Spring, Python, Keras, TensorFlow, NumPy, Pandas, Spark, Kafka für das Streaming der Clickpfad-Daten, Hadoop (Solr, Spark, Hive, ZooKeeper).
Juni 2015 - Aug. 2015
3 Monaten
München, Deutschland
Anforderungsanalyse
BayWa AG
Im Rahmen des Projekts wurden die Anforderungen an den neuen BayWa-Shop auf Hybris-5.x-Basis gesammelt und dokumentiert.
Anwendungsfälle und Prozesse von BayWa wurden analysiert und dokumentiert.
Am Ende entstanden drei Artefakte: ein Lastenheft mit Anforderungen und Anwendungsfällen, eine Anforderungsliste (ca. 600 Anforderungen) und eine Prozesslandkarte.
Feb. 2014 - Mai 2015
1 Jahr 4 Monaten
München, Deutschland
Java/Spring/DevOps Architekt, AI/ML/NLP/BigData Architekt, Time Series Analyse
Crealogix AG
Bema ist die Beratungssoftware für die Bankberater, die alle Finanzinformationen sowohl über den Kunden als auch über die Finanzmärkte dem Bankberater zur Verfügung stellt.
Darunter kann die Finanzlage des Kunden und die aktuelle Investitionen des Kunden dargestellt werden.
Wichtiger Teil von der Software war die statistische Analyse von den möglichen Assets in dem Finanzmarket (Akzien, Rohstoffe, etc.) Auf Basis von der python Bibliothek statsmodels wurden unterschiedliche Trends in den Finanzmärkte als Time Series analysiert, (ETS Decomposition, SMA, EMA, Holt-Winters, ACF, PACF Dickey-Fuller Test auf Stationarity), als Graphiken dargestellt und mittels VAR, VARMA und ARIMA Familie der Methoden (AR, ARMA, ARIMA, SARIMA, SARIMAX) vorhersagt.
Außerdem wurden POCs durchgeführt, wie die RNNs auch (LSTMs und GRUs) dafür verwendet werden könnten.
Die Ergebnisse waren dem Bankberater als spezielle Wizards dargestellt, die es erlauben, die Parameter anzupassen.
IcSuite Data Warehouse Lösung auf Basis von Informatica PowerCernter.
IcSuite ergänzt Informatica im Bereich Business Intelligence.
IcSuite fügt viele Funktionen hinzu, die Informatica nicht liefert: grafische Übersicht von ETLInfrastructure, Datenquellen Analyse, Extended Reporting, Compare, Synchronize und Deploy von ETL-Strecken.
VplusBrowser ist eine GWT-basierte Webapplikation, die die Audi-Modelldaten grafisch als ein Baum darstellt.
Die Applikationen bietet unter anderem eine Merkmahlsuche, die es erlaubt, beliebige Attribute aus beliebigen Baumknoten in eine virtuelle Suchanfrage zu verbinden.
Erstellung von GWT-Basisgerüst für die Anwendung, Entwicklung von GWT-Masken und Services, Entwicklung von JPA-Entitäten und Services, Optimierung von Oracle- Datenbankabfragen mit Hints und Execution Plans, Erstellung von Entwicklertests und dazugehörigen Architektur.
Internetshops für bader.de, BAUHAUS(bahag.de), haba.de auf Basis von Hybris 4.5 Plattform.
Baader.de: In diesem Teilprojekt wurde eine Anbindung von Hybris Web Shop an SAP mittels Apache CXF gemacht. Dabei wurde ein Service seitens Hybris-Shopsystem entwickelt, das die Auftrags- und Kundendaten mit SAP austauschte. Außerdem wurden Hybris-typische Aufgaben erledigt: Hybris Cron-Jobs, Templates, hmc, Order Management, Katalogpflege.
Haba.de: Erstellung von Hybris Extentions für Prozessverwaltung. Dabei wurde ein Freeware BPMN 2.0 Editor genommen und daraus generierte XML wurde mittels selbstgebauten Frameworks automatisch nach Hybris Impex Format konvertiert. Damit könnten die in einem BPMN-Editor erstellete und editierte Prozesse im Hybris als HybrisProzesse ausgeführt werden.
BAUHAUS: Für BAUHAUS wurde ein Web-Shop auf Basis von Hybris Accelerator erstellt.
Lufthansa Miles & More über Loyalty Partner Solutions (American Express Gruppe)
Samba. Samba ist ein neues Miles&More System für Lufthansa.
Für alle AIR-Events (Flüge bei Lufthansa und Partner) und non-air Events (z.B. Hotelbuchungen) werden virtuelle Miles (Virtual currency) gesammelt, die gegen Ware im Lufthansa Shop ausgetauscht werden können.
Zusätzlich verfolgt und dokumentiert Lufthansa mittels Samba System die sogenannten Status-Miles, die für einen Status-Upgrade des Kunden notwendig sind: FTL, Senator, Honored Member.
Technologien: Java EE 5 (Ejb 3.0,JAX-WS 2.0, JPA 2.0)
Nov. 2009 - Aug. 2010
10 Monaten
München, Deutschland
Chefarchitekt, Entwicklungsleiter
BG Phoenics GmbH
BPEx.
Mitarbeit im Entwicklerteam der Anwendung BPEx zum Informationsaustausch zwischen der gesetzlichen Unfallversicherung und der Deutschen Rentenversicherung (DRV) in Ausführung des zweiten Mittelstandsentlastungsgesetzes (MEG II).
Technologien: JavaEE, GWT, SQL
Nov. 2008 - Aug. 2009
10 Monaten
München, Deutschland
Softwarearchitekt, Arbeitspaketleiter
BG Phoenics GmbH
„Phoenics.“
Erstellung eines Konzepts und Leitung der Softwareentwicklung für Phoenics-Entwicklertests.
Im Rahmen des Projektes wurde eine Architektur, Muster und Prozess für Entwicklertests in Phoenics neu definiert.
Aktivitäten: Schwachstellenanalyse im Entwicklerprozess, Modellierung, Erstellung eines Konzeptes, Szenarien und Benutzerdokumentation.
Entwicklung einer webbasierten Applikation zur Erfassung von Kostenvoranschlägen von Leistungserbringern im Gesundheitsbereich, die in der Anwendung verarbeitet und dann an die Kostenträger weitergeleitet werden.
Erstellung eines Pflichtenheftes für ein Webportal.
Im Rahmen dieses Projekts wurde außerdem auch die fachliche Spezifikation für das Webportal erstellt.
Aktivitäten: Anforderungsanalyse, Use-Case-Analyse, UML Modellierung, Brainstorming mit den Stakeholdern und zukünftigen Portalkunden, Zusammenarbeit mit der GraphikDesignagenturen, Technologieberatung, Oberflächenkonzipierung, Prototyping.
Technologien: IBM Websphere
Feb. 2008 - Aug. 2008
7 Monaten
Oberhaching, Deutschland
Systemarchitekt
General Electric (GE)
Business Conversion ASL: Die von GE erworbene Firma ASL (Auto-Service Leasing) wurde mit den GE-eigenen Standards der Softwareumgebung kompatibel gemacht.
Als Teil dieses Projektes wurden die Webportale von ASL vollständig in die GE-Umgebung portiert.
Die Webportale wurden optimiert, Software wurde von Tomcat nach Jboss portiert, es wurden JUnit-Tests erstellt und direkte Datenbankzugriffe durch Datenquellen ersetzt, Software wurde modularisiert und dokumentiert.
Es wurde ein formaler, Maven-basierter Softwareentwicklungsprozess eingeführt.
Implementierung einer Anwendung zur Portierung von Abrechnungs- und Kundendaten (Altsystem Smalltalk/DB2, Neusystem Java EE/ Oracle).
Portiert wurden mehrere Millionen Datensätze mit unterschiedlichsten Datenstrukturen.
Technologien: Java 1.6, Hibernate 3 mit Annotations, Hibernate QL, Oracle, DB2, Ant 1.7, Maven 2.0, JUnit.
Design und Implementierung einer Webschnittstelle zur Kundenabrechnung.
Die portierten Daten sollten über die Webschnittstelle den Kunden online zur Verfügung gestellt werden.
Das Projekt umfasste Such-, Druck- und Exportfunktion, sowie Kundenverwaltung.
Technologien: Java 1.6, Hibernate 3 mit Annotations, Hibernate QL, Oracle, Ant 1.7, Maven 2.0, JUnit, Jboss, Tomcat, MARVIN(siehe unten)
Dez. 2006 - Okt. 2007
11 Monaten
München, Deutschland
Senior-Softwareentwickler
VSA
Jump.
Entwicklung von Modulen und Komponenten eines Warenwirtschaftssystems für Apotheken auf Basis eines vom Kunden selbst entwickelten Java-Anwendungsframeworks.
Technologien: Basis ist ein vom Kunden entwickeltes Anwendungsframework, Java 1.4, MDA, Magic Draw, Sybase
Jan. 2006 - Nov. 2006
11 Monaten
Entwickler/Architekt
KohlPharma
Blister: GUI-Design und -Entwicklung in einem Projekt zur Realisierung einer Client-Anwendung zum Einsatz in Apotheken.
Die Anwendung soll für die patientenindividuelle Verblisterung von Medikamenten eingesetzt werden.
Technologien: Basis ist das vom Kunden VSA entwickelte Anwendungsframework, welches selbst entwickelte APIs wie auch J2EE-Komponenten verwendet (Java 1.4; Eclipse; MARVIN; MDA; UML (Magic Draw); Ant; Sybase)
Sept. 2004 - Dez. 2005
1 Jahr 4 Monaten
München, Deutschland
Softwareentwicklung, Graphik-Design
hybris GmbH (ab 2013 SAP)
Hybris v.2.X E-Commerce.
Eine “Grünen-Wiese”-Implementierung eines E-Commerce-Systems, die 2013 von SAP eingekauft und als aktuelles Modul SAP Commerce weitervermarktet wurde.
Meine Aufgaben neben der Entwicklung des Systemkerns lagen in der Implementierung der Suche mit Lucene.
Entwicklung von mehreren Software-Systemen: Katalog-Server, eProcurement-System, Partnerverwaltungssystem (Marketing Tracking), Forum-System, Schwarzes Brett.
Mitarbeit in einem Team, welches das off-shore entwickelte System anpasste und kleine Änderungsanforderungen implementierte.