Christian Richter

Dateningenieur

Berlin, Deutschland
Erfahrungen
Okt. 2024 - Bis heute
10 Monaten

Dateningenieur

Unterstützungs- und Beratungsdienstleistungen für eine SCM-Anwendung.

Technologien: Google Cloud, GKE, Kubernetes, SQL, Kafka, Kafka Connect, Kotlin, Dbt, GitHub, Pekko.

  • Unterstützung beim Erstellen eines Master-Datensatzes für eine Supply-Chain-Management-Anwendung.
  • Design und Implementierung von ETL-Strecken.
  • Datenanalyse zur Optimierung der Datenqualität.
  • Umsetzung eines Dashboards zur Überwachung der Datenqualität.
  • Aufsetzen von CI/CD-Pipelines, Monitoring und Alerting für operative ETL-Prozesse.
Sept. 2023 - Okt. 2024
1 Jahr 2 Monaten

Dateningenieur

Covestro AG

Unterstützungs- und Beratungsdienstleistungen im Rahmen einer Data-Warehouse-Implementierung.

Technologien: AWS Cloud, CloudFormation, SAP PLM, OpenSearch, Docker, Spring, Flyway, Java, SQL.

  • Beratung zu Datenmodell, ETL-Strecken & Cloud-Architektur.
  • Konzeption und Umsetzung mehrerer ETL-Strecken.
  • Anbindung SAP-PLM-System zur Datenextraktion und -aufbereitung.
  • Anbindung MES-System zur Datenextraktion und -aufbereitung.
  • Wissenstransfer an interne Mitarbeiter.
Juli 2021 - Okt. 2023
2 Jahren 4 Monaten

Dateningenieur

GfK SE

Unterstützung bei der Migration eines Data-Warehouse von einer On-Premise-Umgebung in die AWS Cloud.

Technologien: AWS Cloud, Airflow, Terraform, Python, Java, SQL, Cloudera, Hadoop, Glue, EMR, LakeFormation, GitLab.

  • Konzeption und Umsetzung eines Data-Warehouse mittels LakeFormation und Glue Catalog.
  • Migration bestehender Spark-Jobs nach AWS Glue, AWS EMR.
  • Umsetzung von Workflow-Management mittels Airflow.
  • Konzeption und Umsetzung mehrerer GitLab CI/CD-Pipelines.
  • Schulung und Wissenstransfer an interne Mitarbeiter.
Juni 2020 - Dez. 2022
2 Jahren 7 Monaten

Datenarchitekt

RTL Group

Konzeption und Umsetzung eines cloudbasierten Data-Warehouse zur Auswertung von Nutzerdaten.

Technologien: AWS Cloud, Kinesis, Kubernetes, Istio, Docker, Kafka, Python, PySpark, Pandas, Avro, Kafka Streams, Terraform, Python, Kustomize, PowerBI.

  • Konzeption und Umsetzung der Cloud-Infrastruktur zum Aufbau eines Data-Warehouse.
  • Integration von Airflow als Workflow-Engine.
  • Integration des Google Spark K8s Operator als Runtime für ETL-Prozesse.
  • Aufbau eines Teams zur Umsetzung von ETL-Prozessen.
  • Umsetzung mehrerer ETL-Prozesse mit PySpark.
  • Implementierung einer Event-Streaming-Pipeline für Echtzeitanalysen.
  • Datenaufbereitung für weitergehende Analyse in PowerBI.
  • Beratung zur allgemeinen Datenarchitektur.
Aug. 2019 - Dez. 2019
5 Monaten

DevOps-Ingenieur

D.Swarovksi KG

Konzeption und Umsetzung einer Infrastruktur zur Sensordatenverarbeitung, Erweiterung einer bestehenden Data-Science-Umgebung.

Technologien: AWS Cloud, Kubernetes, CloudFormation, Kafka, Kafka Connect, PySpark, Bamboo, Java, Python, Docker, Helm Charts, InfluxDB.

  • Beratung zur Konzeption und zu Werkzeugen für den Aufbau einer Kubernetes-basierten Infrastruktur zur Sensordatenverarbeitung.
  • Konzeption und Aufbau der Infrastruktur auf Kubernetes (Kafka-Cluster, Spark-Framework, Zookeeper, ZK Manager).
  • Konzeption und Aufbau einer ETL-Strecke zur Datenvereinnahmung.
  • Konzeption und Aufbau einer CI/CD-Pipeline mit Bamboo & Kubernetes.
Jan. 2019 - März 2020
1 Jahr 3 Monaten

Dateningenieur

Volkswagen AG

Konzeption und Umsetzung eines cloudbasierten Data-Warehouse zur Auswertung von Fahrzeugdaten, Evaluierung der Data-Science-Umgebung.

Technologien: AWS Cloud, Lambda, IAM, Kubernetes, Kubeflow, Docker, Databricks, Terraform, Python, OpenSearch, LogStash, Kibana, Helm.

  • Erweiterung und Produktivsetzung eines Prototyps zur Massendatenverarbeitung.
  • Aufbau und Inbetriebnahme einer CI/CD-Pipeline.
  • Konzeption, Umsetzung & Deployment der Backend-API inkl. Helm-Chart.
  • Konzeption & Umsetzung der Projektstruktur, Release-Management.
  • Evaluierung von Kubeflow, Databricks.
  • Aufbau einer ETL-Strecke zur Datenvalidierung und -vereinnahmung.
  • Umsetzung der Feature-Extraktion aus Fahrzeugdaten.
Okt. 2017 - Nov. 2018
1 Jahr 2 Monaten

Dateningenieur

D. Swarovski KG

Konzeption und Umsetzung eines cloudbasierten Data-Warehouse / Data-Science-Umgebung.

Technologien: AWS Cloud, Kubernetes, Spark, R, NiFi, CloudFormation, Docker, Python, Jupyter Notebook.

  • Konzeption eines dynamisch skalierbaren Data-Warehouse.
  • Umsetzung der Infrastruktur in CloudFormation (Infrastructure as Code).
  • Umsetzung von Infrastrukturelementen in Kubernetes.
  • Modellierung des DWH & der Datenablage.
  • Aufbau von ETL-Strecken zur Datenvereinnahmung.
Mai 2017 - Dez. 2018
1 Jahr 8 Monaten

Datenarchitekt

aixigo AG

Unterstützung bei Konzeption und Umsetzung einer Microservice-Architektur.

Technologien: Microservices, Java, Docker, Kafka, LiquiBase, IT-Architektur allgemein.

  • Abstimmung und Koordination diverser Teams bezüglich Technologieeinsatz.
  • Unterstützung bei der Konzeption zentraler Elemente (De/Serializer, Data-Pipe-Design, Error-Handling, Message-Handling, Datenbank-Design).
  • Einführung von Kafka als zentralen Message-Bus für Microservices.
  • Einführung von LiquiBase zum Datenbankschema-Management.
  • Fachliche/technische Betreuung eines einzelnen Microservice.
März 2017 - März 2017
1 Monate

Requirements Engineer

Open Grid Europe GmbH

Unterstützung bei der Evaluierung von Anbietern im Bereich Big Data.

Technologien: Hortonworks, Cloudera, SAP Cloud, Apache NiFi, AWS Cloud, MS Azure.

  • Erfassung und Dokumentation der technischen und fachlichen Anforderungen zum Aufbau und Betrieb eines auf Apache Hadoop basierenden Data-Warehouse.
  • Einholen von Angeboten verschiedener Anbieter, Aufbereitung der Informationen zur Entscheidungsfindung.
  • Implementierung eines Prototyps zur Datenvereinnahmung.
Jan. 2017 - Aug. 2017
8 Monaten

Dateningenieur

GfK SE

Konzeption und Umsetzung eines Big-Data-Warehouse in der AWS Cloud.

Technologien: AWS Cloud, Spark, SparkR, Cloudera, Hadoop, Hive, Python, Jupyter Notebook, R, Bamboo, Terraform.

  • Technische Projektleitung.
  • Konzeption der AWS-Cloud-Infrastruktur.
  • Implementierung von Data-Pipelines.
  • Aufbau von Data-Warehouse / Workflow-Management.
  • Datenaufbereitung / Prozessmanagement.
Okt. 2016 - Okt. 2016
1 Monate

Dateningenieur

Universitätsspital Basel

Workshop Big-Data-Technologien – Einführung und Funktionsweise.

Technologien: Hadoop, Spark, AWS Cloud, MapReduce, Hive, Pig, R.

  • Durchführung eines dreitägigen Workshops.
  • Einführung in das Big-Data-/Hadoop-Ökosystem.
  • Praktische Übung: Big-Data-Einsatz in der AWS Cloud.
Juni 2016 - Dez. 2016
7 Monaten

Dateningenieur

Helix Leisure Pte Ltd

Architektur-Review sowie Konzeption und Implementierung einer Streaming-Layer.

Technologien: Hadoop, Spark, AWS Cloud, Scala, MapReduce, JCascalog, RedShift, CloudFormation.

  • Review und Bewertung der vorhandenen Architektur und des Datenmodells.
  • Durchführung eines Workshops zu Datenmanagement / Lambda-Architektur.
  • Konzeption und Implementierung der Real-Time-Layer mit Spark RT.
  • Erarbeitung von Konzept und Umsetzung für die Integration von Real-Time- und Batch-Layer.
Feb. 2016 - Juli 2016
6 Monaten

Dateningenieur

Otto GmbH & Co. KG

Unterstützung beim Aufbau von ETL-Strecken für ein Hadoop-basiertes DWH.

Technologien: Hadoop, Hive, Spark, Redis, Kafka, Avro, Scala, HCatalog, Schedoscope.

  • Planung und Umsetzung eines Hive-Export-Moduls.
  • Implementierung von Kafka- & Redis-Export-Modul als Teil eines Open-Source-Projekts.
  • Implementierung eines Analyse-Algorithmus zur Auswertung von Clickstreams.
Dez. 2015 - Aug. 2016
9 Monaten

DevOps-Ingenieur

GfK SE

Konzeption und Aufbau einer Continuous-Deployment-/Delivery-Pipeline für eine datengetriebene Anwendung in einer Cloud-Umgebung.

Technologien: AWS Cloud, Hadoop, Spark, Bamboo, Git, Terraform, Vagrant, InfluxDB.

  • Planung und Umsetzung einer Big-Data-Infrastruktur in der AWS Cloud.
  • Planung und Umsetzung einer Continuous-Deployment-Pipeline.
  • Technische Leitung eines internen Teams.
Juli 2015 - Okt. 2015
4 Monaten

Dateningenieur

RadioOpt GmbH

Konzeption und Umsetzung eines Data-Warehouse basierend auf Big-Data-Technologien – OLAP-Workload.

Technologien: Hadoop, Impala, Hive, ETL, AWS Cloud.

  • Planung und Realisierung der Cluster-Infrastruktur.
  • Evaluierung verschiedener Eingangsformate hinsichtlich Performance.
  • Vorbereitung und Durchführung von Lasttests.
Juli 2014 - Juni 2015
1 Jahr

Dateningenieur

Technicolor SA

Konzeption und Umsetzung eines Big-Data-Systems zur Batch- und Realtime-Datenverarbeitung.

Technologien: Hadoop, Samza, Spark, Kafka, Java, ETL, AWS, CloudFormation.

  • Planung und Realisierung der Deployment-Umgebung.
  • Evaluierung verschiedener Technologien zur Datenerfassung / -verarbeitung.
  • Technische Leitung eines Teams.
  • Implementierung eines verteilten, ausfallsicheren High-Throughput-Messaging- und Analysesystems für Maschinendaten (Lambda-Architektur).
März 2013 - Sept. 2014
1 Jahr 7 Monaten

Dateningenieur

Ubisoft / BlueByte GmbH

Konzeption und Umsetzung eines Hadoop-basierten Data-Warehouse für Game Analytics.

Technologien: Hadoop, MapReduce, Kafka, Hive, ETL, Java, Linux.

  • Planung und Realisierung eines Data-Warehouse.
  • Evaluierung verschiedener Ansätze zur Datenerfassung.
  • Auswahl geeigneter Technologien.
  • Technische Leitung / Koordination eines verteilten Teams (GER, CN, CAN).
  • Implementierung eines verteilten, ausfallsicheren High-Throughput-Messaging-Systems.
Feb. 2013 - Juni 2014
1 Jahr 5 Monaten

DevOps-Ingenieur

Deutsche Telekom AG

Konzeption und Umsetzung einer Big-Data-Infrastruktur in virtualisierten Umgebungen.

Technologien: Hadoop, OpenStack, Opscode Chef, Java, Linux.

  • Planung und Realisierung einer Big-Data-Deployment-Infrastruktur.
  • Implementierung des Deployment-Prozesses für Hadoop-Cluster on Demand in einer virtualisierten Umgebung.
  • Prototypische Implementierung verschiedener Algorithmen im MapReduce-Framework.
Nov. 2012 - Aug. 2015
2 Jahren 10 Monaten

DevOps-Ingenieur

GfK SE

Konzeption und Umsetzung einer Big-Data-Architektur zur Auswertung von Telekommunikationsdaten.

Technologien: Cloudera, Hadoop, Hive, Flume, Java, Spring, Puppet, Ubuntu Linux, AWS.

  • Planung und Realisierung des Netzwerks (VPC).
  • Planung und Realisierung eines Hadoop-Clusters (100 TB Kapazität).
  • Einrichtung des Deployment-Prozesses inkl. Monitoring.
  • Implementierung eines Data-Ingestion-Frameworks zur Speicherung von ca. 300 GB Daten pro Tag.
Mai 2012 - Dez. 2012
8 Monaten

Dateningenieur

exactag GmbH

Konzeption und Umsetzung eines Hadoop-Clusters.

Technologien: Cloudera, Hadoop, Hive, Pig, Python, Java, Maven, Puppet, Debian Linux.

  • Beratung und Konzeption eines Hadoop-Clusters.
  • Auswahl der geeigneten Hardware.
  • Einrichtung eines Deployment-Prozesses und Ausrollen des Clusters.
  • Portierung bestehender Statistikroutinen nach MapReduce.
Juni 2011 - März 2012
10 Monaten

Dateningenieur

Etracker GmbH

Neuimplementierung eines Analysetools als MapReduce-Anwendung.

Technologien: Cloudera, Hadoop/HBase, Java, Maven, Ganglia, Chef, PHP, Debian Linux.

  • Analyse und Integration einer bestehenden Implementierung in das MapReduce-Framework mit der Hadoop-Streaming-API.
  • Installation und Konfiguration eines Hadoop-Clusters inkl. Monitoring.
  • Einrichtung eines Deployment-Prozesses.
März 2011 - Sept. 2016
5 Jahren 7 Monaten

Dateningenieur, DevOps-Ingenieur

LambdaNow.com / AltusInsight GmbH

Konzeption und Entwicklung einer Webapplikation (LambdaNow).

Technologien: Apache Hadoop, Python, Puppet, AWS, OpenStack, Git, RedHat Linux.

  • Konzeption der Anwendung.
  • Implementierung von Webseite und Backend.
  • Einrichtung des Deployment-Prozesses + Hosting-Umgebung.
  • Einrichtung eines vollautomatisierten Apache-Hadoop-Deployment-Prozesses in der Amazon- und OpenStack-Cloud.
Sept. 2010 - Feb. 2011
6 Monaten

Backend-Entwickler

Aupeo GmbH

Integration eines Payment-Providers in ein bestehendes Backend.

Technologien: Ruby/Rails, OAuth, MySQL, Git, Debian Linux.

  • Mapping der Daten, Textmatching mit vorhandener Datenbasis.
  • Datenaufbereitung, Konvertierung und Import in die Datenbank.
  • Integration eines Payment-Providers.
Mai 2010 - Sept. 2010
5 Monaten

Backend-Entwickler

OpenLimit SignCubes GmbH

Integration einer Signaturkomponente in ein E-Mail-Programm (KMail).

Technologien: C++, Qt, KDE, Ubuntu Linux.

  • Einrichtung der Debug-Umgebung.
  • Integration der Signaturkomponente in KMail.
  • Testen der Implementierung.
März 2010 - Mai 2010
3 Monaten

Backend-Entwickler

Etracker GmbH

Implementierung und Refactoring eines Analysetools in C++.

Technologien: C++, MySQL C/C++ API, Doxygen, Hudson, Ubuntu/Debian Linux.

  • Einrichtung einer Build-Umgebung für C++-Projekte.
  • Refactoring des Prototyps.
  • Anpassung und Erweiterung der Software für die Produktionsumgebung (Logging, Fehlerbehandlung, Unit Testing).
  • Einrichtung eines Deployment-Prozesses.
  • Aufsetzen eines Build-Servers (Continuous Integration).
Jan. 2010 - Bis heute
15 Jahren 7 Monaten
Berlin, Deutschland

Freiberuflicher Dateningenieur

Ingenieurbüro Christian Richter – Data, Cloud & Container

  • Freiberuflicher Dateningenieur mit Interesse an DevOps
  • Mitwirkung an über 20 erfolgreichen Projekten
Nov. 2009 - Feb. 2010
4 Monaten

Backend-Entwickler

Ingenieurbüro Christian Richter

Konzeption und Entwicklung eines Webcrawlers.

Technologien: C++, Fedora/RedHat Linux, Cassandra.

  • Design der Applikation als hochperformanter Multi-Threaded-Server.
  • Implementierung als verteilte Anwendung unter Verwendung asynchroner Sockets (non-blocking I/O).
Mai 2009 - Okt. 2009
6 Monaten

Dateningenieur

MOG Inc.

Erweiterung eines bestehenden Indexing-Frameworks.

Technologien: Ruby/Rails, MySQL.

  • Anpassung eines Indexing-Frameworks zur Indizierung von Musikdaten an ein verändertes Datenbankmodell.
  • Konvertierung der vorhandenen Daten (ca. 100 GB).
Mai 2008 - Apr. 2009
1 Jahr

DevOps-Ingenieur

MOG Inc.

Konzeption, Aufbau und Inbetriebnahme einer Hosting-Umgebung für eine große Webseite.

Technologien: Apache, Nginx, HAProxy, Mongrel, MySQL, MySQLProxy, BIND, DHCP, Cobbler, Puppet, RedHat Linux.

  • Konzeption der Hosting-Umgebung.
  • Aufbau der Infrastruktur für Server-Provisioning/-Konfiguration.
  • Einrichtung von MySQL Master/Master-Replication + MySQLProxy.
  • Einrichtung der Serversoftware, Monitoring und Logging.
  • Migration der Webseite vom Hosting-Provider zur Colocation.
  • Analyse und Optimierung zur Performance-Verbesserung des Gesamtsystems.
Okt. 2007 - Apr. 2008
7 Monaten

Backend-Entwickler

MOG Inc.

Portierung eines XML-RPC-Servers von Ruby on Rails nach C++.

Technologien: C++, XML-RPC, Ruby/Rails, XML-Schema, MySQL C/C++ API, RedHat Linux.

  • Analyse der Performance-Probleme.
  • Implementierung/Portierung nach Spezifikation (geg. Protokoll).
  • Austausch der Komponente und Integration in das vorhandene Backend.
Juni 2006 - Sept. 2007
1 Jahr 4 Monaten

Dateningenieur

MOG Inc.

Konzeption und Entwicklung einer Infrastruktur zur Integration von Daten externer Anbieter.

Technologien: Ruby/Rails, MySQL, Bash, RedHat Linux.

  • Aufbau einer Musikdatenbank mit Daten von Anbietern wie Allmusic, Muze (Macromedia), Rhapsody, MediaNet.
  • Datenaufbereitung, Konvertierung und Import in die Datenbank.
  • Mapping der Daten verschiedener Anbieter.
Jan. 2006 - Mai 2006
5 Monaten

Backend-Entwickler

MOG Inc.

Konzeption, Design und Entwicklung eines Spellcheckers als Komponente eines Indexing-Frameworks.

Technologien: C++, SOAP, CLucene, MySQL C/C++ API, Doxygen, RedHat Linux.

  • Analyse vorhandener Algorithmen.
  • Implementierung eines Algorithmus (Levenshtein-Distanz und Ngram-Index) in C++.
  • Integration in das vorhandene System.
Mai 2005 - Okt. 2009
4 Jahren 6 Monaten
Berkeley, Vereinigte Staaten

Softwareentwickler und Systemarchitekt

MOG Inc. – Startup im Bereich Medien/Internet

  • Verantwortlich für Entwurf, Umsetzung und Inbetriebnahme der Hosting-Umgebung
  • Konzeption und Umsetzung mehrerer Softwareprojekte in C++
Mai 2005 - Dez. 2005
8 Monaten

Backend-Entwickler

MOG Inc.

Konzeption, Design und Entwicklung eines Collaborative-Filtering-Systems als verteilte Anwendung.

Technologien: C++, MySQL C/C++ API, XML, XML-Schema, Perl, Doxygen, RedHat Linux.

  • Evaluierung geeigneter Algorithmen.
  • Implementierung als verteilte Anwendung mit Datenbankanbindung.
  • Integration in vorhandenes Backend und Frontend.
Sept. 2004 - März 2005
7 Monaten

Backend-Entwickler

Fraunhofer Institut

Implementierung/Portierung eines Verfahrens zur Extraktion der Hauptmelodielinie.

Technologien: C++, Matlab, Mandrake Linux.

  • Portierung eines in Matlab vorhandenen Algorithmus nach C++.
  • Optimierung der Implementierung hinsichtlich der Laufzeit.
Juli 2003 - März 2005
1 Jahr 9 Monaten
Ilmenau, Deutschland

Mitarbeiter

Fraunhofer IDMT – Forschungsinstitut im Bereich Audio/Video

  • Wissenschaftliche Untersuchungen auf dem Gebiet von Suchalgorithmen
  • Beteiligung an der Entwicklung und Implementierung von Algorithmen
Juli 2003 - Aug. 2004
1 Jahr 2 Monaten

Datenanalyst

Fraunhofer Institut

Wissenschaftliche Untersuchung von Datenstrukturen zur Bestimmung des Nearest Neighbors für ein Music-Information-Retrieval-System.

Technologien: Matlab, C++, Perl, Apache, CGI, Mandrake Linux.

  • Untersuchung mehrerer Nearest-Neighbor-Algorithmen auf Eignung hinsichtlich der Spezifikation.
  • Design und Implementierung eines Algorithmus in C++ und Integration ins bestehende System (als dynamische Bibliothek in C++).
  • Durchführung und Auswertung einer Testreihe zur Evaluierung.
Jan. 2003 - Juni 2003
6 Monaten

Datenanalyst

ID Analytics Inc.

Mitarbeit an der Entwicklung von Algorithmen zur Erkennung von Identitätsdiebstahl.

Technologien: Java, Octave, Perl, Tomcat, Oracle, RH Linux, Solaris.

  • Implementierung eines Tools zur Visualisierung von Graphen.
  • Analyse großer Datenmengen (~250 GB) zur Merkmalsextraktion mit einem Java-Processing-Framework.
  • Entwicklung/Implementierung von Algorithmen zur Erkennung von Identitätsdiebstahl (Regressionsanalyse).
Jan. 2003 - Juni 2003
6 Monaten
San Diego, Vereinigte Staaten
Lorem ipsum dolor sit amet

ID Analytics Inc. – Startup im Bereich Finanzdienstleistungen

  • Mitarbeit an einer Software zur Erkennung von Identitätsdiebstahl
  • Datenaufbereitung und Datenanalyse
  • Mitarbeit an der Entwicklung und Implementierung von Algorithmen
Nov. 2001 - Dez. 2002
1 Jahr 2 Monaten
Lorem ipsum dolor sit amet

Fraunhofer Institut

Mitarbeit an Design und Implementierung einer Cross-Platform-GUI (Win32/Linux) für ein Query-by-Humming-System.

Technologien: C++, QT, Win32, Linux.

Aug. 2000 - Dez. 2002
2 Jahren 5 Monaten
Ilmenau, Deutschland
Lorem ipsum dolor sit amet

Fraunhofer IDMT – Forschungsinstitut im Bereich Audio/Video

  • Entwicklung von Testumgebungen zur Beurteilung von Algorithmen
  • Entwurf und Implementierung von GUIs zur Präsentation von Algorithmen auf Fachmessen
Aug. 2000 - Okt. 2001
1 Jahr 3 Monaten
Lorem ipsum dolor sit amet

Fraunhofer Institut

Mitarbeit an wissenschaftlicher Evaluierung von Algorithmen zur Ähnlichkeitssuche für ein Query-by-Humming-System.

Technologien: Matlab, Bash, Linux.

  • Implementierung verschiedener Algorithmen in Matlab.
  • Automatisierung/Parallelisierung der Testumgebung mit Bash-Skripten.
Juni 1999 - Juli 1999
2 Monaten
Eckental, Deutschland
Lorem ipsum dolor sit amet

Jumatech – Firma im Bereich Leiterplattenproduktion

  • Bereitstellung von IT-Infrastruktur
Zusammenfassung
  • Konzeption und Umsetzung von ETL-Strecken, Data Pipelines und ML-Pipelines
  • DSGVO-konformes Datenmanagement und Datenverarbeitung
  • Design und Entwicklung cloudbasierter Data-Warehouse-, Data-Lake- und Lakehouse-Implementierungen
  • Datenmodellierung und -analyse, Datenkonvertierung und -aufbereitung
  • Konzeption und Umsetzung datengetriebener Anwendungen auf cloud-nativen Infrastrukturen
  • Anforderungsanalyse, Geschäftsprozessanalyse, Risikoanalyse
Sprachen
Deutsch
Muttersprache
Englisch
Verhandlungssicher
Ausbildung
Okt. 1998 - Sept. 2004

Technische Universität Ilmenau

Diplom · Theoretische Elektrotechnik · Ilmenau, Deutschland

Sept. 1992 - Juli 1996

Georg-Cantor-Gymnasium Halle (Saale)

Allgemeine Hochschulreife · Halle (Saale), Deutschland

Sie suchen Freelancer?Passende Kandidaten in Sekunden!
FRATCH GPT testen
Weitere Aktionen