Vladislav L.

Freiberuflicher Data Engineer / Data-Architekt

Darmstadt, Deutschland

Erfahrungen

Aug. 2023 - Jan. 2025
1 Jahr 6 Monaten
Frankfurt, Deutschland

Freiberuflicher Data Engineer / Data-Architekt

Deutsche Bank

Skalierbaren Data Lake auf der Google Cloud Platform (GCP) für die Abteilung Anti-Financial Crime (AFC) entworfen und implementiert, um Anti-Geldwäsche- und Anti-Terrorfinanzierungs-Initiativen zu unterstützen. Ein kleines Engineering-Team geleitet und robuste Daten-Pipelines zur Erfassung und Verarbeitung hochvolumiger Finanzdaten aufgebaut, darunter über 30 Millionen Transaktionen pro Tag aus dem Privat- und Firmenkundengeschäft. Analyse- und Reporting-Lösungen für Regulierungszwecke an mehreren internationalen Standorten bereitgestellt, darunter Deutschland, Singapur, Sri Lanka, Hongkong, Taiwan und Thailand. Eng mit globalen Teams zusammengearbeitet, um Datenqualität, Compliance und Performance sicherzustellen.

  • Technologien:
  • Cloud: Google Cloud Platform (GCP)
  • Technologien zur Datenverarbeitung: Apache Spark (Dataproc - Python PySpark), Apache Airflow (Cloud Composer - Python API)
  • Technologien zur Datenspeicherung: Google Cloud Storage
  • Data Warehouse: BigQuery
  • CI/CD und Infrastruktur als Code: GitHub Actions, Terraform
  • Container-Orchestrierung: Google Kubernetes Engine (GKE)
Jan. 2023 - Mai 2023
5 Monaten
Karlsruhe, Deutschland

Freiberuflicher Data Engineer

Atruvia AG

Freiberuflicher Data Engineer, verantwortlich für den Aufbau einer zentralen Data Warehouse-Plattform zur internen Datenbereitstellung. Legacy-Mainframe-Workflows modernisiert, indem sie in eine private Cloud-Infrastruktur überführt wurden.

  • Technologien:
  • Technologien zur Datenverarbeitung: Apache Spark (über Java API)
  • Technologien zur Datenspeicherung: Delta Lake (über S3 Storage), Apache Hive
  • Entwicklung: Java SpringBoot, Apache Airflow
Nov. 2021 - Jan. 2025
3 Jahren 3 Monaten
Monheim am Rhein, Deutschland

Freiberuflicher Data Engineer und Backend-Entwickler

BTC Europe

Automatisiertes, hochverfügbares System in nahezu Echtzeit zur Überwachung und Auswertung von Lieferungen in ganz Europa entwickelt.

  • Technologien:
  • Cloud: Azure DevOps, Azure DataFactory, Azure Data Lake
  • Technologien zur Datenverarbeitung: Apache Spark (Python PySpark via Databricks)
  • Technologien zur Datenspeicherung: Apache Kafka, Apache Hive, Delta Lake, ADLS Gen2, Unity Catalog / Databricks SQL, Microsoft SQL Server
  • Streaming-Technologien: Apache Kafka
  • CI/CD: Azure DevOps Pipelines
  • Business Intelligence: Microsoft PowerBI
  • Infrastruktur als Code: Terraform
Juli 2021 - Jan. 2025
3 Jahren 7 Monaten
Ludwigshafen, Deutschland

Freiberuflicher Data Engineer

BASF SE

Freiberuflicher Data Engineer für interne Teams im globalen Finanz-, Zoll- und Chemiesektor. Daten-Warehouse-Systeme modelliert und Analysesoftware entwickelt sowie deren automatisierte Bereitstellung realisiert. Skalierbare ETL-Pipelines für große Datenmengen entwickelt. Automatisierte Datenanalyse und Continuous Delivery auf Basis der Geschäftsanforderungen umgesetzt.

  • Technologien:
  • Cloud: Azure DevOps, Azure DataFactory, Azure Data Lake
  • Technologien zur Datenverarbeitung: Apache Spark (Python PySpark via Databricks)
  • Technologien zur Datenspeicherung: Unity Catalog / Databricks SQL, Delta Lake, ADLS Gen2, SAP HANA, Microsoft SQL Server, Oracle Database
  • Streaming-Technologien: Apache Kafka
  • CI/CD: Azure DevOps Pipelines
  • Business Intelligence: Microsoft PowerBI
  • Infrastruktur als Code: Terraform
Feb. 2021 - Juni 2021
5 Monaten
Hannover, Deutschland

Freiberuflicher Backend-Entwickler

Norddeutsche Landesbank

Freiberuflicher Backend-Entwickler bei einer Landesbank, tätig an einer Plattform für Smart-Contract-Analysen. Komponenten für die automatisierte Vertragsanalyse und Dokumentenerstellung entwickelt. Rohe Machine-Learning-Modelle in Produktions-Workflows integriert.

  • Technologien:
  • Webservices und REST-APIs: Spring-Boot, Python Flask, verschiedene Python-Bibliotheken für PDF-Merkmalsextraktion und -erstellung
  • Managed Services: MinIO & S3 Storage, PostgreSQL-Datenbank, Keycloak für Nutzer-Authentifizierung
  • Automation und Orchestrierung: Kubernetes, Docker-Compose, GitActions für Continuous Integration & Deployment
Feb. 2020 - Dez. 2020
11 Monaten
Karlsruhe, Deutschland

Backend-Entwickler, Lösungsarchitekt

Fiducia GAD

Entwarf, verwaltete und skalierte Hadoop-Cluster für groß angelegte Datenverarbeitung. Entwickelte eine Self-Service-Plattform zur automatischen Bereitstellung bankspezifischer Anwendungen. Implementierte CI/CD-Workflows zur Unterstützung mehrstufiger Deployments über Umgebungen und Cluster basierend auf dem Projektlebenszyklus.

  • Technologien:**
  • Webservices und REST-APIs: Spring-Boot, Angular
  • Hadoop-Ökosystem: Datenspeicherung (HDFS, HBase, Hive), Streaming (Spark-Streaming, Storm), Sicherheit (Knox, Ranger, Kerberos)
  • Nachrichtenwarteschlangen: Apache Kafka
  • Clusterverwaltung: Ansible, Shell-Scripting, Ambari-API, Active Directory
  • Automatisierung: OpenShift Container Orchestration, Jenkins für Continuous Integration & Deployment
Jan. 2018 - Feb. 2020
2 Jahren 2 Monaten
Darmstadt, Deutschland

Backend-Entwickler, Dateningenieur

Inkubator 100 Plus GmbH

Schloss zwei Freelance-Projekte im Bereich Finanzmarktanalyse und Entwicklung von Anlagestrategien ab. Sammelte und integrierte Daten von Drittanbietern und crawlte Finanzdaten von verschiedenen Websites. Errichtete eine verteilte Datenspeicher-Infrastruktur mit PostgreSQL, MongoDB und Neo4j und verband sie mit einem Apache Spark-Verarbeitungskluster. Entwickelte eine End-to-End-Datenpipeline und implementierte eine Softwareumgebung für Backtesting und Portfolio-Umschichtung. Erstellte eine skalierbare und benutzerfreundliche Webanwendung zur Strategiewahl und Simulation. Übernahm zudem die Rolle des Scrum Masters, verwaltete agile Workflows und erleichterte die Teamkoordinierung.

  • Technologien:**
  • Datenerfassung: REST-APIs von Drittanbietern, Web-Crawling mit Python–Scrapy und Python-BeautifulSoup
  • Verteilte Datenspeicherung: Postgres, Neo4J, Sharded MongoDB, Cassandra
  • Datenanalyse und -verarbeitung: ApacheSpark, Python–Pandas
  • Websites und REST-APIs: Python–Django, Python–Flask
  • Automatisierung und Orchestrierung: Kubernetes, Docker-Compose, Jenkins für Continuous Integration & Deployment

Sprachen

Deutsch
Muttersprache
Russisch
Muttersprache
Englisch
Verhandlungssicher
Chinesisch
Grundkenntnisse

Ausbildung

Okt. 2015 - Okt. 2020

Technische Universität Darmstadt

B.Sc. · Informatik · Darmstadt, Deutschland

Sie suchen Freelancer?Passende Kandidaten in Sekunden!
FRATCH GPT testen
Weitere Aktionen