Vladislav L.

Freiberuflicher Dateningenieur / Datenarchitekt

Darmstadt, Deutschland

Erfahrungen

Aug. 2023 - Jan. 2025
1 Jahr 6 Monaten
Frankfurt, Deutschland

Freiberuflicher Dateningenieur / Datenarchitekt

Deutsche Bank

Entwarf und implementierte einen skalierbaren Data Lake auf der Google Cloud Platform (GCP) für die Anti-Financial Crime (AFC)-Abteilung, der Anti-Geldwäsche- und Anti-Terror-Finanzierungs-Initiativen unterstützte. Führte ein kleines Engineering-Team und baute robuste Datenpipelines zum Einlesen und Verarbeiten großer Mengen an Finanzdaten, darunter über 30 Millionen tägliche Transaktionen aus dem Retail- und Firmenkundengeschäft. Lieferte Analyse- und Regulierungsberichts-Lösungen für mehrere internationale Standorte, darunter Deutschland, Singapur, Sri Lanka, Hongkong, Taiwan und Thailand. Kollaborierte eng mit globalen Teams, um Datenqualität, Compliance und Performance sicherzustellen.

  • Technologien:
  • Cloud: Google Cloud Platform (GCP)
  • Datenverarbeitungstechnologien: Apache Spark (Dataproc - Python PySpark), Apache Airflow (Cloud Composer - Python API)
  • Datenspeichertechnologien: Google Cloud Storage
  • Data Warehouse: BigQuery
  • CI/CD und Infrastruktur als Code: GitHub Actions, Terraform
  • Container-Orchestrierung: Google Kubernetes Engine (GKE)
Jan. 2023 - Mai 2023
5 Monaten
Karlsruhe, Deutschland

Freiberuflicher Dateningenieur

Atruvia AG

Freiberuflicher Dateningenieur verantwortlich für den Aufbau einer zentralen Data-Warehouse-Plattform zur internen Datenbereitstellung. Modernisierte Legacy-Mainframe-Workflows durch Migration auf eine private Cloud-Infrastruktur.

  • Technologien:
  • Datenverarbeitungstechnologien: Apache Spark (über Java-API)
  • Datenspeichertechnologien: Delta Lake (über S3 Storage), Apache Hive
  • Entwicklung: Java SpringBoot, Apache Airflow
Nov. 2021 - Jan. 2025
3 Jahren 3 Monaten
Monheim am Rhein, Deutschland

Freiberuflicher Dateningenieur und Backend-Entwickler

BTC Europe

Entwickelte ein automatisiertes, hochverfügbares Near-Real-Time-System zur Überwachung und Auswertung von Lieferungen in ganz Europa.

  • Technologien:
  • Cloud: Azure DevOps, Azure DataFactory, Azure Data Lake
  • Datenverarbeitungstechnologien: Apache Spark (Python PySpark über Databricks)
  • Datenspeichertechnologien: Apache Kafka, Apache Hive, Delta Lake, ADLS Gen2, Unity Catalog / Databricks SQL, Microsoft SQL Server
  • Streaming-Technologien: Apache Kafka
  • CI/CD: Azure DevOps Pipelines
  • Business Intelligence: Microsoft PowerBI
  • Infrastruktur als Code: Terraform
Juli 2021 - Jan. 2025
3 Jahren 7 Monaten
Ludwigshafen, Deutschland

Freiberuflicher Dateningenieur

BASF SE

Freiberuflicher Dateningenieur für interne Teams im globalen Finanz-, Zoll- und Chemiesektor. Modellierung von Data-Warehouse-Systemen sowie Entwicklung von Analyse-Software und deren automatisierter Bereitstellung. Aufbau skalierbarer ETL-Pipelines für große Datenmengen. Automatisierte Datenanalyse und kontinuierliche Auslieferung nach fachlichen Anforderungen.

  • Technologien:
  • Cloud: Azure DevOps, Azure DataFactory, Azure Data Lake
  • Datenverarbeitungstechnologien: Apache Spark (Python PySpark über Databricks)
  • Datenspeichertechnologien: Unity Catalog / Databricks SQL, Delta Lake, ADLS Gen2, SAP HANA, Microsoft SQL Server, Oracle Database
  • Streaming-Technologien: Apache Kafka
  • CI/CD: Azure DevOps Pipelines
  • Business Intelligence: Microsoft PowerBI
  • Infrastruktur als Code: Terraform
Feb. 2021 - Juni 2021
5 Monaten
Hannover, Deutschland

Freiberuflicher Backend-Entwickler

Norddeutsche Landesbank

Freiberuflicher Backend-Entwickler bei einer Landesbank (öffentlich-rechtlich) und Mitarbeit an einer Plattform für Smart-Contract-Analysen. Entwickelte Komponenten für automatisierte Vertragsanalysen und Dokumentengenerierung. Integrierte rohe Machine-Learning-Modelle in Produktions-Workflows.

  • Technologien:
  • Webservices und REST-APIs: Spring Boot, Python Flask, verschiedene Python-Bibliotheken zur PDF-Feature-Extraktion und -Generierung
  • Managed Services: MinIO & S3 Storage, PostgreSQL, Keycloak zur Benutzer-Authentifizierung
  • Automatisierung und Orchestrierung: Kubernetes, Docker Compose, GitActions für Continuous Integration & Deployment
Feb. 2020 - Dez. 2020
11 Monaten
Karlsruhe, Deutschland

Backend-Entwickler, Lösungsarchitekt

Fiducia GAD

Entwarf, verwaltete und skalierte Hadoop-Cluster für die großflächige Datenverarbeitung. Entwickelte eine Self-Service-Plattform für die automatisierte Bereitstellung bankspezifischer Anwendungen. Implementierte CI/CD-Workflows, um mehrstufige Deployments über Umgebungen und Cluster basierend auf dem Projektlebenszyklus zu unterstützen.

  • Technologien:**
  • Web-Services und REST-APIs: Spring-Boot, Angular
  • Hadoop-Ökosystem: Datenspeicherung (HDFS, HBase, Hive), Streaming (Spark-Streaming, Storm), Sicherheit (Knox, Ranger, Kerberos)
  • Message-Queueing: Apache Kafka
  • Cluster-Management: Ansible, Shell-Scripting, Ambari-API, Active Directory
  • Automatisierung: OpenShift Container Orchestration, Jenkins für Continuos Integration & Deployment
Jan. 2018 - Feb. 2020
2 Jahren 2 Monaten
Darmstadt, Deutschland

Backend-Entwickler, Dateningenieur

Inkubator 100 Plus GmbH

Zwei freiberufliche Projekte durchgeführt, bei denen ich Finanzmärkte analysierte und Anlagestrategien entwickelte. Daten von Drittanbietern gesammelt und integriert und Finanzdaten von verschiedenen Websites gecrawlt. Verteilte Datenspeicher-Infrastruktur mit PostgreSQL, MongoDB und Neo4j aufgebaut und an einen Apache Spark-Verarbeitungscluster angebunden. End-to-End-Datenpipeline entwickelt und eine Softwareumgebung für Backtesting und Portfolio-Rebalancing implementiert. Eine skalierbare und benutzerfreundliche Webanwendung für Strategiewahl und Simulation erstellt. Außerdem die Rolle des Scrum Masters übernommen, agile Abläufe gesteuert und die Teamkoordination unterstützt.

  • Technologien:**
  • Datenerfassung: Drittanbieter-REST-APIs, Web-Crawling mit Python–Scrapy und Python–BeautifulSoup
  • Clusterbasierte Datenspeicherung: Postgres, Neo4j, Sharded MongoDB, Cassandra
  • Datenanalyse und -verarbeitung: ApacheSpark, Python–Pandas
  • Websites und REST-APIs: Python–Django, Python–Flask
  • Automatisierung und Orchestrierung: Kubernetes, Docker-Compose, Jenkins für Continuous Integration & Deployment

Sprachen

Deutsch
Muttersprache
Russisch
Muttersprache
Englisch
Verhandlungssicher
Chinesisch
Grundkenntnisse

Ausbildung

Okt. 2015 - Okt. 2020

Technische Universität Darmstadt

B.Sc. · Informatik · Darmstadt, Deutschland

Sie suchen Freelancer?Passende Kandidaten in Sekunden!
FRATCH GPT testen
Weitere Aktionen