Entwurf und Refactoring von logischen und physischen Datenmodellen in einem mehrstufigen DWH (Data Vault 2.0, Data Lake, STAGE-, CORE-Layer-Design). Erhebung funktionaler und nicht-funktionaler Anforderungen.
ETL-/ELT-Pipelines – Entwurf, Entwicklung und Orchestrierung, Gestaltung der Deployment-Strategie (DevOps, CI/CD) gemäß (ITIL 4) Stakeholder-Anforderungen.
Entwurf und Implementierung von CI/CD-Deployment- und Transportmethoden, Unterstützung in der Hypercare-Phase (Pre-/Prod-Umgebung), tägliche Betriebsabläufe.
Datenbereitstellung/-einspeisung aus/in verschiedene Altsysteme (Azure Data Factory, Dataverse, Business Objects), Konsolidierung und Migration Standardberichte, Performance-Tuning und Qualitätssicherung bereitgestellter Daten, Transformation in MS OneLake (POC), Definition von Alerting- und Benachrichtigungsmethoden und -kanälen.
Analyse der Geschäftsanforderungen gemäß NIS2-Richtlinien und prototypische Umsetzung (POC, MS Power BI).
Kenntnisse: Innovator 15.2, SAP Hana Studio, MS DataFabric, Amazon Elastic Kubernetes Service (EKS), SAP Hana (inkl. CDS/CS Views), HDBSQL, NIS2UmsuCG, Salesforce, Jira/SCRUM, CI/CD-Methoden, GitHub, Apache Airflow, SAP BO (Webi, Crystal), Python 3.x, SAP Fieldglass, SQL/PLSQL.
März 2023 - Okt. 2023
8 Monaten
Zürich, Schweiz
Datenanalyst / Lösungsdesigner
Zurich Insurance Group AG
Intensive Abstimmung mit fachlichen Stakeholdern, Schätzung und Analyse funktionaler Änderungen. Integration neuer Datenobjekte und Extraktion aus Altsystemen in die Hub-/Core-/Analyseschicht des DWH (SAP Datasphere Business Builder).
Migrationsprojekt SAP FI/CO zu SAP S/4Hana (Stamm-, Transaktions- und Historiendaten) aus verschiedenen SAP- und Nicht-SAP-Altsystemen (Ariba, SuccessFactors …), Konversionsanalyse und Vorbereitung der Simplification Objects, Definition mehrerer Cfin-Transformationen und Fehlerbehandlungen. Vorarbeiten für die Umsetzung der DORA-Vorschriften.
Bestimmung/Definition von Business- und Natural Keys, Aufbau von SCD2-Methoden auf Stage-/Core-Layer ("Light Integration"), Einführung bi-/multitemporaler Datenhistorisierungsroutinen (innerhalb von Wherescape RED-Templates und SAP Data Services).
Bereitstellung und Optimierung der Datenverteilung, Orchestrierung von Datenpipelines (ParTcl), Packen/Versionierung von Datenmodellen, Durchführung von Voll- und Delta-Ladeprozessen, Planung und kontinuierliche Überwachung der Ladevorgänge über verschiedene Umgebungen, Vorbereitung von Testdaten vor der Datenmigration.
Durchführung von Entwickler- und Integrationstests, Dokumentation der Testergebnisse, Vorbereitung automatisierter Integritätstestverfahren (inkl. Bereitstellung in den Umgebungen und Aufbau von Performance-Kennzahlen), Entwicklung von Bereinigungs- und Benachrichtigungsregeln.
Kenntnisse: Wherescape (RED, BLUE), ParTcl, Computer System Validation (CSV)-Richtlinien, MS SQL, OpenShift, MS Azure DevOps, Azure Data Factory, „Digital Operational Resilience Act“ – DORA, SAP FI/CO (Cfin*), IBM Process Mining, ABAP (Extractors), Fiori, SAP S/4Hana, SAP PowerDesigner / ArchiMate, SQL/TSQL, SAP LSMW, SAP DS 4.3, MLOps-Pipelines, GitHub.
Apr. 2021 - März 2023
2 Jahren
Bern, Schweiz
Data Engineer und Migrationsentwickler ADW („Active DataWarehouse“)
PostFinance AG
Effizienter Datentransfer DB2 → Oracle inklusive Migrations-Dashboard-Lösung (Retail-Kunden- und Zahlungsberichte).
Performance-Analyse und verschiedene Optimierungen von langlaufenden Aufgaben und Berichten, Durchführung von Deployments über alle Umgebungen, Überwachung der Produktions-Rollouts, Gewährleistung der Sicherheit, Orchestrierung und Stabilisierung von ELT-Prozessen.
Entwurf und Entwicklung von Datenmodellen, Entwicklung der SAP-Migrationsstrategie, Aufbau von Schnittstellen und Aggregaten für die Chatbot-Lösung von Metis, Umsetzung der DSGVO-Richtlinien.
Kenntnisse: AS400 DB2 und Oracle 19c Enterprise Edition, SAP FI/CO (IDocs), SAP Data Services 4.x, ABAP OO, SQL/PLSQL, SAP ECC, Quest Toad, Toad for DB2, Snowflake und Snowpipe, dbt (Database Tool) mit dbtvault-Plugin, Docker Desktop, IntelliJ IDEA, DevOps, CI/CD-Pipelines innerhalb von ML-Frameworks, GitLab, Grafana, Atlassian-Software (Jira, Confluence).
Mai 2020 - März 2021
11 Monaten
Braunschweig, Deutschland
SAP Datenmigrationsarchitekt / Datenmigrationsentwickler
Volkswagen Financial Services
Mehrere Datenmigrationsprojekte aus verschiedenen CRM-, SAP-/Nicht-SAP- und Legacy-Systemen (Salesforce, MS Dynamics) in SAP S/4Hana.
Entwicklung der Migrationsstrategie für Transaktions- und Stammdaten (MARA), Erstellung von Mapping-Dokumenten und Gap-Analysen, Verteilung der Änderungen über DevOps, Datenprofiling und Behebung von Datenqualitätsproblemen in SAP FI/CO.
Entwicklung von Datenvalidierungsregeln, Erstellung von Testfällen, Validierung der Integrationstestergebnisse, Visualisierung von Datenqualitätsproblemen (über Dashboards), Koordination der Delivery Owner, Go-Live-Unterstützung.
Kenntnisse: Informatica PowerCenter 10.2 (mit IDoc-Schnittstelle, TDM und QM), SAP Migration Cockpit, SAP FI/CO, SAP Embedded Analytics, LSMW/LTMC, Qlik Sense, SAP MDM/MDG, Redshift/Oracle für Data Staging.
Dez. 2019 - Mai 2020
6 Monaten
Hannover, Deutschland
Datenanalyst p.p. Adesso Group
KKH Hannover
Entwurf und Implementierung von Methoden zur „selektiven Datenlöschung“ gemäß Art. 17 DSGVO (Datenschutz-Grundverordnung).
Prototypische Umsetzung einer schnellen Löschroutine für große Datenbanktabellen im bestehenden Enterprise Data Warehouse.
Entwicklung effizienter Data-Lineage-Berichte zur Darstellung hierarchischer Quell-Ziel-Abhängigkeiten.
Kenntnisse: Informatica 10.2 (PowerCenter, Developer, Enterprise Data Catalog, Data Quality, TDM, MX Views), Enterprise Architect/ERWin, TOGAF 9.x, Oracle 19c Multitenant, Microsoft Power BI Desktop, DAX, PowerOneBi (nach IBCS-Regeln), GitLab.
Jan. 2019 - Nov. 2019
11 Monaten
Frankfurt, Deutschland
Selbständiger Full-Stack-Architekt
DB Systel / Z.O.D
Projekt “Decision Service Room – DSR”, Entwurf und Entwicklung der Unternehmens-DWH-Architektur (MySQL Server / PostgresSql auf AWS RDS).
Entwurf/Implementierung des logischen und physischen Datenmodells (Staging-, Core- und Mart(s)-Ebene mit aktivierter „Row Level Security“).
Erstellen von ETL/ELT-Jobs, Orchestrierung der Ladeprozesse über die DWH-Ebenen und Altsysteme, RESTful-API- und Kafka-Schnittstellen.
Erweiterung und Anpassung vorhandener SAP-SAC-Berichte („Smart Predict“, „Smart Discovery“).
Integration und End-to-End-Tests, Performance-Testvorbereitung, UML.
Fähigkeiten: Wherescape (3D, RED) und SAP Data Services, GitLab, PostgresSql, IBM AS400/DB2, Data Vault 2.0, TMT, OpenShift, SAP Analytics Cloud (SAC), ABAP, Apache Messaging (Kafka), IntelliJ, Postman API, Keycloak, RESTful API, Einrichtung von Continuous Integration / Delivery (CI/CD), Atlassian Software (Jira/Confluence).
Feb. 2016 - Dez. 2018
2 Jahren 11 Monaten
Bern, Schweiz
Selbständiger DWH-Architekt
DB Systel GmbH / SwissPost AG
Aufbau funktionaler Data Marts (PostgresSql mit Data Vault 2.0 und Snowflake DB) und Bereitstellung für Kunden über REST-API-Connectoren.
Überführung bestehender Informatica-Workflows in die Amazon Cloud.
Mehrere Migrationsprojekte im AWS Cloud Computing (Daten aus DB2, Oracle, Flatfiles...).
Überführung bestehender Informatica-Workflows in die Amazon Cloud.
Umstellung der bestehenden Reporting-Lösung (SAP BOXI) von Oracle auf AWS Redshift.
Erfassung und Dokumentation funktionaler und nicht-funktionaler Anforderungen, Requirements-Management.
Aufbau einer Schnittstelle zu SAP PP „Production Planning“ und zu SAP sAFI (SAP HANA mit Calculation Views und SLT) und Einrichtung der täglichen Ladeläufe.
Schnittstelle zum Onlineshop, Entwurf der Anbindung an DWH und SAP Hybris, Implementierung, Tests und Roll-out.
Ladeperformanz-Optimierung (Voll- und Delta-Ladung).
Entwurf des Reporting-Frameworks für die hierarchische Produktzusammensetzung.
Fähigkeiten: Informatica 10.2 (Developer, Data Quality Transformations und Product Integration), AWS (Managed Stack), Redshift, Snowflake (Multi Cluster), IBM DOORS, IBM AS400, UML, SAP HANA Studio, Talend Open Studio (TOS 7.x), Apache Kafka Streams, IntelliJ mit Spring Boot, Jenkins, Swagger, SAP HANA, Informatica PowerCenter 10.x inklusive MDM-Modul, BMC Remedy, Oracle 11c/12, Snowflake DB, Scaled Agile Framework 4.x (SAFe).
März 2013 - Dez. 2015
2 Jahren 10 Monaten
München, Deutschland
Fachexperte (SME)
MunichRe AG
Entwurf und Entwicklung des Datenextraktionsprozesses vom HP Service Manager in das Enterprise Data Warehouse (EDWH).
Datenmodellierung für ein mehrschichtiges Enterprise DWH (inklusive Performance-Datenmodell und Sicherheitskonzept).
Kostenreports: Entwurf, Entwicklung und Verteilung.
Evaluierung von Echtzeit-Datenverarbeitungsmethoden für die Schnittstelle zu einer Cocpit Desktop Solution (Vergleich Informatica PowerCenter 9.5 vs. SLT vs. BODS 4.1 vs. Oracle ODI 12c).
Vorbereitung von User Acceptance Tests, Coaching der Power-User.
Entwurf und Erstellung regulatorischer Reports gemäß deutscher Bankenverordnung (SolvV, GroMiKV).
Diverse Vorarbeiten für Solvency II (technische Anforderungsanalyse).
Fähigkeiten: SAP Business Objects 4.2 SP1 (WebIntelligence, Lumira, Universe Designer, IDT etc.), Business Objects Data Services (BODS), Informatica PowerCenter 9.5, Oracle ODI 12c, Sybase PowerBuilder, HP Service Manager 9.34, Scrum-Techniken, Analysis for Office (AfO), Design Studio, Data Vault 2.0, Jira (Atlassian).
März 2013 - Dez. 2014
1 Jahr 10 Monaten
Fachexperte (SME) (Teilzeit, 50%)
Lufthansa AirPlus Servicekarten GmbH
Entwurf und Entwicklung des Datenextraktionsprozesses vom HP Service Manager in das Enterprise Data Warehouse (EDWH).
Datenmodellierung für ein mehrschichtiges Enterprise DWH (inklusive Performance-Datenmodell und Sicherheitskonzept).
Kostenreports: Entwurf, Entwicklung und Verteilung.
Evaluierung von Echtzeit-Datenverarbeitungsmethoden für die Schnittstelle zu einer Cocpit Desktop Solution (Vergleich Informatica PowerCenter 9.5 vs. SLT vs. BODS 4.1 vs. Oracle ODI 12c).
Vorbereitung von User Acceptance Tests, Coaching der Power-User.
Entwurf und Erstellung regulatorischer Reports gemäß deutscher Bankenverordnung (SolvV, GroMiKV).
Diverse Vorarbeiten für Solvency II (technische Anforderungsanalyse).
Fähigkeiten: SAP Business Objects 4.2 SP1 (WebIntelligence, Lumira, Universe Designer, IDT etc.), Business Objects Data Services (BODS), Informatica PowerCenter 9.5, Oracle ODI 12c, Sybase PowerBuilder, HP Service Manager 9.34, Scrum-Techniken, Analysis for Office (AfO), Design Studio, Data Vault 2.0, Jira (Atlassian).
Okt. 2012 - Feb. 2013
5 Monaten
München, Deutschland
DWH/ETL-Architekt
MAN AG
Projekt „Car Leasing“.
Entwurf des Daten-Downloads aus SAP BW (BODS-Extraktoren, PL/SQL).
Orchestrierung, Tuning und Reengineering bestehender ETL-Pipelines (OWB und ODI 12c).
Implementierung der Business-Semantikebene (Business Objects Universum) für das Handelsgesetzbuch (HGB).
Entwurf, Implementierung und Tests der Standardreports (WebIntelligence, hauptsächlich Buchhaltungs- und Abrechnungsreports).
Fähigkeiten: SAP Business Objects 4.1 (DeskI, Dashboard, WebI), Business Objects Data Services (BODS), Oracle OWB, ODI 12c, SAP Bank Analyzer, SAP FI Extractors Oracle 12c, PL/SQL, Data Architect, R. Kimballs Star-Schema (Data Marts) und Data Vault (Staging Area), Shell-Scripting, HP (ALM, Quality Center).
Apr. 2010 - Aug. 2012
2 Jahren 5 Monaten
Frankfurt, Deutschland
DWH-Architekt
SEB /Santander Bank
„SMART“-Projekt für SEB AG.
Entwurf und Entwicklung eines großen Data Warehouses (> 1 TB).
Verschiedene Reporting-Aufgaben nach BaFin-Vorgaben (Master KVGen, MA-Risk, BAIT, EAEG, „Anlegerentschädigungsgesetz“).
Abspaltung von Stammdaten und Transaktionsdaten nach der Übernahme der SEB AG Bank durch die Santander Bank. Integration des „Mandator-Konzepts“ während der Ausgliederungsphase.
Anforderungsanalyse, Dimensionierung & Modellierung des Star-Schemas.
Koordination zwischen Fach- und Entwicklungsabteilungen.
Entwurf und Entwicklung von ETL-Schnittstellen (Informatica PowerCenter).
Release-Management über alle Umgebungen: Produktion, Test, Entwicklung, Abnahme.
Performance-Tuning (SAP BO, Oracle 10g, 11c) und Harmonisierung der Ladezeiten (Informatica).
System-Upgrade von SAP BO 3.x auf BO XI 4.1 (Frontend und Server).
Wissensvermittlung an Endanwender, interne Schulungen, Dokumentation.
Entwicklung mit PowerCenter 7.1/PowerMart (ETL, Informatica).
Kenntnisse: Migrationsstrategie, Kenan/BP: GUI-Unit- und Integrationstests (WinRunner, TestDirector), Entwurf und Entwicklung von PowerCenter-Erweiterungen: Stored Procedures in Oracle 9i, DLLs, Migration der PowerMart-Mappings in neue PowerCenter-Umgebung, Übernahme der alten Transaktionsmechanismen in PowerMart und Wiederverwendung in PowerCenter, ETL-Reporting: Konzeption und Umsetzung, SQL, PL/SQL, C++.
Sept. 2001 - Dez. 2002
1 Jahr 4 Monaten
Senior-Softwarearchitekt
EDS Deutschland GmbH
Projekt für einen Gesundheitsdienstleister in Österreich.
OOA/OOD (Rational Rose XDE, Toogether Soft.).
Framework-Entwicklung (J2EE), ETL-Interface (nur Laden der Daten ins Zielsystem).
Anpassung und Optimierung der PowerMart-Komponenten (Mappings, DLLs, Key-Generatoren) gemäß den Anforderungen.
Migration eines internationalen Serviceanbieters (Wireless/Wireline, Schweiz) zu BSCS.
Upgrade des Billing- und Rating-Systems: BSCS 5.0 auf 5.21, nur für Wireline-Kunden.
5.000 Privat-/Geschäftskunden und 6.000 aktive Verträge.
Verantwortlich für die Besetzung des Design-Teams und der Migration-Task-Force.
Zusammenarbeit und Coaching während des Designs, der Entwicklung und Implementierung des Migration Clients (in "C" programmiertes, TCP/IP-basiertes Tool, das mit dem CAS-Modul von BSCS zusammenarbeitet).
Performance-Optimierung der PowerMart-Mappings (durch Optimierung von SQL-Abfragen und I/O-Transaktionen), Design und Implementierung der “Schedule Tasks” und Benachrichtigungskomponenten des PM.
Erstellung von Testfällen und Abnahmeprotokollen.
Qualitätsmanagement.
Kenntnisse: Oracle 7.34, SunSolaris, C++, Embeded C, COCOMO II.
Aug. 1999 - Jan. 2000
6 Monaten
Deutschland
Verantwortlicher für das Change-Request-Management
EDS Deutschland GmbH
Post-Migrationsphase.
Bewertung der Migration von COPS auf BSCS 5.0.
Analyse und First-Level-Support bei Rating-Problemen.
Verwaltung migrationsbezogener Problem- und Kundenanfragen.
Kenntnisse: MS Project, Vantive, PVCS, Workflow-Management-System.
Jan. 1997 - Aug. 1999
2 Jahren 8 Monaten
Frankfurt, Deutschland
Softwareingenieur (Migration und System-Upgrade, CAS)
LHS Group
Teamleiter der CAS (Customer Administration Server) Entwicklungsgruppe.
Entwurf der System-Upgrade-Strategie.
Verantwortlich für Migrationen zu BSCS.
Entwurf der Extraktions-, Konvertierungs- und Lade-Logik für Kundenmigrationen (PL/SQL, SQL, C++).
Entwurf, Optimierung und Administration unserer Datenbanken (Oracle 7.3.4 und 8i).
Entwurf und Entwicklung der Teststrategie für Migrationen. Entwicklung von Vorlagen für ETL-Berichte (SQL, PL/SQL).
Entwicklung und Integration von Dynamic Linking Librarys und Shared Objects in C/C++.
Anpassung von Billing- und Rating-Systemen für einen Telekommunikationsdienstleister in EMEA (Batch- und Online-Module).
Test und Behebung von Defekten.
Bewertung neuer Technologien für die Implementierung in der gesamten Organisation, einschließlich Java, JavaScript, HTML 3.0, Netscape, Centura, Access und Visual Basic.
Kenntnisse: Centura, C/C++, Native Interfaces.
Sprachen
Deutsch
Muttersprache
Polnisch
Muttersprache
Englisch
Verhandlungssicher
Russisch
Grundkenntnisse
Ausbildung
Sept. 2002 - Sept. 2004
McComb School of Business
Master of Business Administration, Strategisches Management · Betriebswirtschaftslehre · Austin, Vereinigte Staaten
Okt. 1992 - Sept. 1996
Technical University Darmstadt
Bachelor of Science, Informatik · Informatik · Darmstadt, Deutschland
Sie suchen Freelancer?Passende Kandidaten in Sekunden!