Vladislav Lasmann
Freiberuflicher Dateningenieur / Architekt
Erfahrungen
Freiberuflicher Dateningenieur / Architekt
Deutsche Bank
Entwarf und implementierte einen skalierbaren Data Lake auf Google Cloud Platform (GCP) für die Anti-Financial Crime (AFC)-Abteilung zur Unterstützung der Anti-Geldwäsche- und Anti-Terrorfinanzierungsinitiativen
Erstellte robuste Datenpipelines zum Einlesen und Verarbeiten von über 30 Millionen Transaktionen pro Tag aus dem Privat- und Firmenkundengeschäft und wendete dimensionales Modellieren an, um erweiterte Analysen und regulatorische Berichte zu ermöglichen
Sicherte die Resilienz durch Implementierung von Change Data Capture, Handling von verspäteten Daten und Schema-Evolution über sich ändernde Quellsysteme hinweg
Leitete ein kleines Engineering-Team und arbeitete mit internationalen Stakeholdern in Deutschland, Singapur, Sri Lanka, Hongkong, Taiwan und Thailand zusammen, um Compliance, Datenqualität und Performance sicherzustellen
Google Cloud Platform (GCP)
Apache Spark (Dataproc & Cloudera Data Platform - Python PySpark)
Apache Airflow (Cloud Composer - Python API)
Google Cloud Storage
BigQuery
GitHub Actions
Terraform
Google Kubernetes Engine (GKE)
Freiberuflicher Dateningenieur
Atruvia AG
Erstellte eine zentrale Data-Warehouse-Plattform für die Bereitstellung interner Datensätze
Modernisierte Legacy-Mainframe-Workflows durch Migration in eine Private-Cloud-Infrastruktur
Apache Spark (via Java API)
Delta Lake (via S3 Storage)
Apache Hive
Java SpringBoot
Apache Airflow
Freiberuflicher Dateningenieur und Backend-Entwickler
BTC Europe
Entwickelte ein automatisiertes, hochverfügbares, echtzeitnahes System zur Überwachung und Auswertung von Lieferungen in ganz Europa
Azure DevOps
Azure DataFactory
Azure Data Lake
Apache Spark (Python PySpark via Databricks)
Apache Kafka
Apache Hive
Delta Lake
ADLS Gen2
Unity Catalog / Databricks SQL
Microsoft SQL Server
Apache Kafka
Azure DevOps Pipelines
Microsoft PowerBI
Terraform
Freiberuflicher Dateningenieur
BASF SE
Modellierte und optimierte Data-Warehouse-Systeme mit Fokus auf skalierbare dimensionale Strukturen für analytische Auswertungen
Entwickelte ETL-Pipelines für große Datenmengen, einschließlich Mechanismen für inkrementelles Laden, Schema-Evolution und automatisierte Behandlung inkonsistenter oder unvollständiger Quelldaten
Implementierte automatisierte Datenanalysen und Continuous-Delivery-Pipelines basierend auf dynamischen Geschäftsanforderungen
Azure DevOps
Azure DataFactory
Azure Data Lake
Apache Spark (Python PySpark via Databricks)
Unity Catalog / Databricks SQL
Delta Lake
ADLS Gen2
SAP HANA
Microsoft SQL Server
Oracle Database
Apache Kafka
Azure DevOps Pipelines
Microsoft PowerBI
Terraform
Freiberuflicher Backend-Entwickler
Norddeutsche Landesbank
Entwickelte Komponenten für automatisierte Smart-Contract-Analysen und Dokumentenerstellung auf einer Plattform zur Smart-Contract-Analyse
Integrierte rohe Machine-Learning-Modelle in Produktions-Workflows
Spring-Boot
Python Flask
Python-Bibliotheken für PDF-Feature-Extraktion und -Generierung
MinIO & S3 Storage
Postgres Database
Keycloak User Authentication
Kubernetes
Docker-Compose
GitActions für Continuous Integration & Deployment
Backend-Entwickler, Lösungsarchitekt
Fiducia GAD
Konzipierte, verwaltete und skalierte Hadoop-Cluster für groß angelegte Datenverarbeitung
Entwickelte eine Self-Service-Plattform zur automatisierten Bereitstellung bankspezifischer Anwendungen
Implementierte CI/CD-Workflows zur Unterstützung mehrstufiger Bereitstellungen in verschiedenen Umgebungen und Clustern basierend auf dem Projektlebenszyklus
Spring-Boot
Angular
HDFS
Hbase
Hive
Spark-Streaming
Storm
Knox
Ranger
Kerberos
Apache Kafka
Ansible
Shell-Scripting
Ambari-API
Active Directory
OpenShift Container Orchestration
Jenkins
Backend-Entwickler, Dateningenieur
Inkubator 100 Plus GmbH
Schloss zwei freiberufliche Projekte zur Analyse von Finanzmärkten und Entwicklung von Anlagestrategien ab
Sammelte und integrierte Daten von Drittanbietern und extrahierte Finanzdaten von verschiedenen Websites
Errichtete eine verteilte Datenspeicher-Infrastruktur mit PostgreSQL, MongoDB und Neo4j, angebunden an einen Apache Spark-Verarbeitungskluster
Entwickelte eine End-to-End-Datenpipeline und implementierte eine Softwareumgebung für Backtesting und Portfolio-Neugewichtung
Erstellte eine skalierbare und benutzerfreundliche Webanwendung zur Strategiewahl und Simulation
Agierte als Scrum Master, verwaltete agile Workflows und erleichterte die Teamkoordination
REST-APIs von Drittanbietern
Web-Crawling mit Python–Scrapy und Python-BeautifulSoup
Postgres
Neo4J
Sharded MongoDB
Cassandra
ApacheSpark
Python–Pandas
Python–Django
Python–Flask
Kubernetes
Docker-Compose
Jenkins
Sprachen
Ausbildung
Technische Universität Darmstadt
B.Sc. · Informatik · Darmstadt, Deutschland
Zertifikate & Bescheinigungen
Chinesisch Anfänger – zertifiziertes Niveau A1
Ähnliche Freelancer
Entdecken Sie andere Experten mit ähnlichen Qualifikationen und Erfahrungen.