Entwurf von Architekturlösungen und konzeptionellen Datenmodellen
Aufbau von ETL/ELT-Datenpipelines mit Tools wie Talend, Mulesoft, Java und cloud-basierten PaaS/SaaS wie Azure Data Factory, Azure Delta Lake, Databricks (PySpark/Python), Cosmos DB usw.
Bereitstellung von CI/CD-Release-Pipelines über Azure DevOps, Versionsverwaltung mit Git/Bitbucket etc.
Aufbau von Cloud-Infrastrukturen mit IaaC-Tools wie Terraform
Implementierung von Data Governance mit Azure Purview
Anleitung des Kundenteams durch Workshops und Schulungen
Einsatz agiler Methoden wie Scrum, Kanban und Scrumban
Entwicklung mehrsprachiger und mehrwährungsfähiger Preislisten für die regionalen und länderspezifischen Vertriebsorganisationen des Kunden mit Talend, Oracle. Datenquellen: SAP, Stibo Step, Schema St4 (Bosch Building Technologies)
Entwicklung einer Datenpipeline zur Migration regionaler Produktdaten aus verschiedenen Unternehmensdatenquellen in das MDM-System (Bosch Power Tools)
Unterstützung bei der Einführung der Kundeninfrastruktur auf AWS mit IaaC Pulumi (Norauto)
Migration von Produktdaten aus verschiedenen Quellsystemen wie SAP, Stibo Step etc. in Salesforce CRM mit Talend Cloud und Talend Big Data (Bosch eBike)
Bereitstellung einer zentralen Datenplattform für eine effiziente Datennutzung durch Unternehmens-Stakeholder und Abteilungen. Ermöglichung analytischer Daten aus Google Search, Google Analytics, Product APIs usw. mit Azure Databricks, Azure Data Factory, Synapse Analytics und PySpark (Bosch Power Tools Data-Hub)
Entwicklung eines Data Governance Proof of Concept für die Kundenpräsentation mit Azure Data Factory, Azure Purview und IaaC Terraform (Bosch Building Technologies)
Implementierung kundenspezifischer Stibo STEP Web-Extensions mit Java (Bosch Power Tools)
Migration von Kundendaten aller weltweit tätigen Konzerntöchter in die zentrale Schnittstelle in Salesforce mit Azure PaaS (Azure Data Factory, Azure Cosmos DB, Databricks und PySpark) (Komax Holding AG)
Entwicklung der Data Logistics für Produktdaten aus PIM und SAP in die REST-basierte Product API über Azure PaaS unter Einsatz von Azure Data Factory, Cosmos DB, Azure Functions, Databricks, Python. Entwicklung von CI/CD-Release-Pipelines in Azure DevOps zum Bereitstellen von ARM-Templates in Azure Data Factory (Bosch Data Logistics)
Okt. 2016 - Mai 2021
4 Jahren 8 Monaten
Köln, Deutschland
Business Intelligence Developer / In-house Consultant
Trusted Shops GmbH
Bearbeitung datengetriebener Anforderungen für Datenintegration, Datenlogistik oder DWH von Stakeholdern aus verschiedenen Unternehmensbereichen
Konzeption und Umsetzung logischer und physischer Datenmodelle, Entwurf von Datenarchitekturen und Aufbau von Proof-of-Concepts
Erstellung von ETL-Jobs mit Talend, Python, SQL. Orchestrierung und Planung mit Rundeck, Linux Cron, TAC, Luigi Framework.
Umsetzung von Datenmigrationen von On-Premises in die AWS Cloud mit AWS S3, SQS, Lambda-Funktionen und Python.
Erstellung von CI/CD-Pipelines für die automatische Bereitstellung von SQL-Strukturen mit AWS Build, SQL, Flyway, GitHub und Toad Data Modeler
Transformation einer On-Premises-Unternehmensdatenbank in die zentralisierte, Data Vault-basierte Core Layer in der AWS Cloud (RDS)
Erstellung von Reportings mit MicroStrategy und Qlik Sense
Dokumentation in Confluence, agiler Workflow (Full Cycle)
Implementierung einer zentralen CORE-Daten-Schicht im Enterprise DWH mit Data Vault, Toad Data Modeler, Talend Data Integration (Trusted Shops)
Aufbau mehrerer DWHs für die Bereiche Finanzen, Consumer, Vertrieb und Risk (Trusted Shops)
Datenmigration von B2B-/B2C-Kundendaten in das Abonnement-Management-System Zuora, Synchronisation mit Salesforce für die Buchhaltung mit Talend, REST und NoSQL (Trusted Shops)
Einrichtung einer Datenpipeline für die kontinuierliche Einspeisung von Shop-Bestellungen und Bewertungen in das unternehmensweite Data Lake unter Verwendung von AWS S3, SQS, Lambda etc. (Trusted Shops)
Migration von Bewertungen aus On-Premises-Systemen in die cloudbasierte Datenplattform mit Talend und AWS Native (S3, Lambda, Snowflake) für die Product Unit 'Most Advanced Review System (MARS)' (Trusted Shops / Volkswagen)
Sept. 2015 - März 2016
7 Monaten
Köln, Deutschland
Working Student, Business Intelligence
Infomotion GmbH
Erstellung von Reports mit SAP BO Web Intelligence
Modellierung der Universen mit SAP BO IDT
Datenpflege im Kunden-DWH mit SAP Data Stage
Entwicklung eines Management-Informationssystems für die BI-Einheit
Erstellung von BI-orientierten Präsentationen
Sprachen
Deutsch
Muttersprache
Englisch
Verhandlungssicher
Ausbildung
Okt. 2015 - Sept. 2017
University of Siegen
M.Sc. · Wirtschaftsinformatik · Siegen, Deutschland · 1.0
Okt. 2012 - Aug. 2015
University of Cologne
B.Sc. · Wirtschaftsinformatik · Köln, Deutschland
Sept. 2006 - Juni 2010
University of Information Technologies in Tashkent
B.Sc. · Informatik · Tashkent, Usbekistan
Zertifikate & Bescheinigungen
Microstrategy-Schulung
Workshop Big Data auf AWS
Workshop Datenmodellierung TDWI
Talend-Schulung
Linuxhotel-Schulung
Linuxhotel
Sie suchen Freelancer?Passende Kandidaten in Sekunden!