Felix Bruckner

Senior Cloud / Data Engineer / Architect

Sankt Leon-Rot, Deutschland

Erfahrungen

Jan. 2024 - Dez. 2025
1 Jahr

AI Consultant & Solution Architect

play TRACKS GmbH

  • Erstellung einer Video-Metadaten-Pipeline (Detector, Tracker, Frame-Extraktion und Analyse)

  • Entwicklung eines Pre-Classifiers mit OpenAI GPT4.1 Vision und AWS Rekognition

  • Keyframe-Analyse mit OpenAI GPT4 Vision und Azure Video Indexer

  • Konzeption und Umsetzung einer RAG-Architektur mit LangChain und pgVector (OpenAI Embeddings)

  • Implementierung eines Long-Form Video Understanding und Activity Recognition-Moduls mit LongVU

  • Umsetzung eines Backend-APIs mit FastAPI für RAG-basierte Videosuche (OpenAI, LangChain, AWS Bedrock)

  • Erstellung von Voice-Over mit Google Text-to-Speech

  • Setup von Terraform und GPU-Cluster für LongVU mit LLM-Backends (LLama 3.2, QWEN)

  • LLM Prompt-Monitoring und Testing-Layer mit OpenAI und Helicone

  • Projekt: Entwicklung einer Zero-Shot-RAG-Anwendung zur Automatisierung von Kurzformaten für Rundfunkanstalten (ORF, BR, SWR, Red Bull Studio)

  • Endnutzer: KI-basiertes Redaktionstool AIDitor in Deutschland und Österreich

  • Tools und Methoden: OpenAI, LLama, Ollama, Python, FastAPI, Azure SpeechServices, Azure Video Indexer, AWS (S3, Lambda, Rekognition, Bedrock, ECS, EC2), Postgres, pgVector, LangChain, PyTorch, YOLO v10, WhisperX, LongVU, Helicone, Docker, Google Gemini API, Terraform

Okt. 2023 - Mai 2025
1 Jahr 8 Monaten

Senior Data Engineer & Technical Consultant DataVerse

Lufthansa Technik AG

  • Technisches Consulting und Greenfield-Entwicklung für AVIATAR 2.0

  • Technische Konzeption von Data Pipelines und Datenarchitektur (DataVerse)

  • Hands-On-Entwicklung von End-to-End Data Pipelines in PySpark Structured Streaming und Databricks

  • Automatisierte Dokumentationserstellung für alle Datenpipelines mit Azure OpenAI LLM und Azure AI Search: Transformation produktiver PySpark-Scripts und SQL-Notebooks via RAG für Volltext-Suche, Business-Logik-Checks und Confluence-Dokumentation

  • Optimierung von Delta Lake Tables (Liquid Clustering, Photon)

  • Bereitstellung von Daten für AI- und ML-Projekte (Predictive Analytics)

  • Koordination mit dem Data Platform-Team für Skalierung und Monitoring der Infrastruktur

  • Enge Zusammenarbeit mit Stakeholdern in der gesamten Lufthansa Technik und Anforderungsmanagement

  • Aufbau eines Testing-Frameworks in PySpark und automatisierte Release-Pipelines mit Azure DevOps

  • Projekt: Greenfield-Entwicklung von DataVerse als Digital Twin für Echtzeit-Monitoring der Teilelogistik

  • Businessziel: Real-time insights, Reporting und Messung der Bevorratung weltweit

  • Tools und Methoden: Databricks, Azure Dedicated SQL, Azure Synapse Analytics, Azure AI Search, Azure OpenAI Service (GPT 4o), Azure EventHub, Azure DevOps CI/CD, PySpark, PowerBI, Microsoft PurView, Python, Kafka, Oracle, Testing, Jira, Confluence, Scrum

Apr. 2023 - Okt. 2023
7 Monaten

Consultant / Solutions Architect

Volkswagen AG / CARIAD SE

  • Migration von On-Premise Services nach AWS

  • Entwicklung von Python-Mapping-Skripten zur Datentransformation großer Testdatenmengen aus Software- und Hardwaretests

  • Entwicklung von Spring Boot-Backends und React-Frontends für Self-Service-Dienste

  • Überführung von DB-Skripten von Oracle PL/SQL nach PostgreSQL

  • Skripting mit Terraform und Deployment von Docker-Containern

  • Projekt: Umstellung der Entwicklungslandschaft auf AWS mit nahtloser Überführung historischer Testdaten aus XRay ohne Datenverlust

  • Businessziel: Streamlining der IT- und Datenlandschaft und Kostenersparnis

  • Tools und Methoden: AWS, Terraform, Java, Python, SQL, Docker, Kubernetes, Helm Charts, GitLab, GitLab CI/CD, AWS EKS, AWS Glue, AWS Lambda, AWS CloudWatch, Spring Boot, Spring Data, Jira, Confluence, Scrum

Nov. 2021 - März 2023
1 Jahr 5 Monaten

Project Lead, Architecture Lead

Sovendus GmbH

  • Leitung eines Teams externer Dienstleister bei der Erweiterung des AWS-Setups und CI/CD-Pipelines mit GitLab CI

  • Infrastrukturbereitstellung mit Terraform (IaC) und Implementierung von Cluster-Autoskalierungsdiensten für EMR in Python und Route 53 Auto-DNS

  • Unterstützung der Migration von On-Premise MySQL-Datenbanken zu AWS RDS und eines 10 TB DWH zu AWS Aurora

  • Umstellung von AD auf AWS Identity Center und von Airflow On-Premise auf AWS MWAA und AWS MSK

  • Konzept und Umsetzung transienter Cluster und Saving Plans zur AWS-Kostenreduzierung

  • Weiterentwicklung von Spring Boot-Microservices für Datenauskunft, Invoicing und Partnerportal (Kubernetes, Docker)

  • Implementierung von KMS-Verschlüsselung (CMK)

  • Präsentation des Projektfortschritts und Kostenprognosen für C-Level Entscheidungsträger

  • Projekt: Cloud Transition und Aufbau einer skalierbaren Data Platform mit Airflow, Databricks Delta, Kafka und AWS-Services nach Scrum

  • Tools und Methoden: AWS, Terraform, Apache Airflow, Python, PySpark, MySQL, Docker, Kubernetes, Helm Charts, GitLab, GitLab CI, Presto, EMR, Hadoop, Hive, AWS (S3, Aurora, MSK, MWAA, RDS, Lambda, Athena, Glue, CloudWatch), Grafana, Jira, Confluence, Scrum

Mai 2019 - Okt. 2021
2 Jahren 6 Monaten

Technical Lead / Architecture Lead

Sovendus GmbH

  • Implementierung von Datenpipelines als Airflow DAGs in Python und PySpark

  • Weiterentwicklung des Datawarehouse-Datenmodells

  • Implementierung von KStreams und Spark Structured Streaming zur Verarbeitung von Event-Datastreams aus Kafka

  • Einführung von Airflow als Custom Docker Image

  • Aufbau eines Kubernetes-basierten Hochverfügbarkeits-Setups für Airflow mit Monitoring durch Grafana

  • Einführung von Confluent Enterprise mit Kafka Connect, Partitionern, SMTs und Schema Registry

  • Entwicklung eines Python-Frameworks zur Unterstützung neuer ETL-Pipelines in Airflow

  • Implementierung von Spring Boot-Microservices für Datenauskunft (DSVGO)

  • Entwicklung einer neuen Datalake-Struktur mit Data Lineage und Data Governance

  • Migration von SQL Datawarehouse-ETL von Talend nach Airflow und Databricks Delta auf AWS S3

  • Projekt: Analyse und Performance-Optimierung des Event-Processing und Migration analytischer Funktionen in die Cloud nach Scrum

  • Tools und Methoden: Apache Airflow, Python, Java, MySQL, Apache Spark, Redis, Docker, Kubernetes, Helm Charts, GitLab, GitLab CI, Confluent Enterprise, Presto, EMR, Hadoop, Hive, AWS (S3, Lambda, Athena, Glue, CloudWatch), Talend Big Data, Grafana, Jira, Scrum

Jan. 2019 - Apr. 2019
4 Monaten

Senior Data Engineer

SAP SE

  • Beratung und technische Unterstützung zu Apache Spark, Hyperscaling und Multi-Tenancy mit Streaming-Applikationen

  • Training von SAP-Teams in Spark Structured Streams

  • Begleitung der Umstellung von Spring Boot-Microservices und Kafka auf Streaming-Architektur

  • Unterstützung beim Design einer skalierbaren Streaming-Aggregation-Engine für Zeitreihendaten

  • Programmierung von Datenpipelines in Scala

  • Unterstützung der Entwicklungslösungen in Java und Scala für Metering, Fault-Tolerance und Tenant-Partitionierung auf AWS/Cloud-Foundry

  • Projekt: Optimierung einer Big Data Architektur für IoT-Zeitreihen-Daten mit Streaming-Lambda-Architektur

  • Tools und Methoden: Scala, SAP HANA, Cassandra, Kafka, Avro, Spark, CloudFoundry AWS, Amazon Kinesis, Amazon EMR, Hazelcast, Redis, Java

Jan. 2018 - Dez. 2019
1 Jahr

Senior Data Engineer

Lufthansa AirPlus Servicekarten GmbH

  • Umsetzung einer Streaming-Data-Lösung mit Apache Kafka und Spark nach PoC

  • Prozessierung und Anreicherung von Kreditkartentransaktionen aus TSYS/Seeburger via Kafka und Spark

  • Entwurf von HBase-Tabellen und Rowkey-Design sowie Architektur verteilter Komponenten

  • Implementierung von Duplicate-Flagging und Transaktionsverfolgung für Service Agents

  • Bereitstellung angereicherter Daten an SAP-Systeme

  • Entwicklung von Spring Boot-Microservices für elektronische Abrechnung auf Kubernetes und Azure

  • Projekt: Aufbau einer eventgetriebenen Big Data-Architektur mit Enterprise Data Lake in Azure (Cloudera Stack) nach Scrum

  • Tools und Methoden: Cloudera Enterprise (Kafka, Hadoop, Spark), Azure Cloud, HBase, OpenShift, Spring Boot, Kubernetes, Helm Charts, Docker, Maven, JUnit, Mockito, Hibernate, SAP, Oracle PL/SQL

Sept. 2016 - Dez. 2017
1 Jahr 4 Monaten

Technical Lead

Deutsche Börse AG

  • Umsetzung von IT-Security-Workflows und Compliance-Richtlinien für 2000 Benutzer in Atlassian JIRA

  • Design und Entwicklung einer Pre-Processing-Umgebung mit Kafka und Spark (Clustering, ML, NLTK) zur heuristischen Analyse von Security Reports und automatischer CVE-Zuweisung

  • Entwicklung von Java-Plugins für Atlassian JIRA zur Workflow-Erweiterung und REST-API-Erweiterung

  • Design und Entwicklung von Oracle 11g-Backend-Datenbanken für IT Asset Management und Pre-Processing

  • Projekt: Prozessimplementierung für Security-Vulnerability-Handling in 10000+ Systemen der Deutschen Börse mit CISO-Reporting nach Scrum

  • Tools und Methoden: Atlassian JIRA, Java, Oracle 11g, PL/SQL, Python, Apache Spark, Kafka, ML, NLTK, Bash, Red Hat Linux, Apache Tomcat, Scrum, Kanban

Sept. 2014 - Aug. 2016
2 Jahren

Freiberuflicher Berater

Orientation In Objects GmbH / Accenture

  • Unterstützung bei Implementierung von Atlassian Jira, Confluence und DevTools für mehrere Kunden

  • Administration von Kundensystemen und Continuous Delivery Pipelines mit JIRA, Bitbucket und Bamboo

  • Entwicklung von Plugins für Atlassian Stash für Merge-Checks und Build-Hooks

  • Umsetzung agiler Workflows in Atlassian JIRA und Bitbucket (z. B. GitFlow)

  • Konzeption und Implementierung einer Qualitätssicherungsplattform mit Jenkins, GitBlit, Gerrit und Groovy Skripting

  • Konzeption eines Git Workflows basierend auf GitFlow

  • Projekt: Atlassian Produktintegration und Entwicklung einer Plattform für verteilte agile Teams

  • Tools und Methoden: Atlassian Jira, Confluence, Bamboo, Stash, Java, Groovy, Bash, Maven, SUSE Linux

Sprachen

Deutsch
Muttersprache
Englisch
Verhandlungssicher

Ähnliche Freelancer

Entdecken Sie andere Experten mit ähnlichen Qualifikationen und Erfahrungen.