Felix Bruckner

Senior Cloud-/Data Engineer/Architekt

Sankt Leon-Rot, Deutschland

Erfahrungen

Jan. 2024 - Dez. 2025
1 Jahr

KI-Berater und Lösungsarchitekt

play TRACKS GmbH

  • Erstellung einer Video-Metadaten-Pipeline (Detector, Tracker, Frame-Extraktion und Analyse)

  • Entwicklung eines Vorklassifizierers mit OpenAI GPT4.1 Vision und AWS Rekognition

  • Keyframe-Analyse mit OpenAI GPT4 Vision und Azure Video Indexer

  • Konzeption und Umsetzung einer RAG-Architektur mit LangChain und pgVector (OpenAI Embeddings)

  • Implementierung eines Moduls für Langform-Videoverständnis und Aktivitätserkennung mit LongVU

  • Umsetzung eines Backend-APIs mit FastAPI für RAG-basierte Videosuche (OpenAI, LangChain, AWS Bedrock)

  • Erstellung von Voice-Over mit Google Text-to-Speech

  • Einrichtung von Terraform und GPU-Cluster für LongVU mit LLM-Backends (LLama 3.2, QWEN)

  • LLM Prompt-Überwachung und Testlayer mit OpenAI und Helicone

  • Projekt: Entwicklung einer Zero-Shot-RAG-Anwendung zur Automatisierung von Kurzformaten für Rundfunkanstalten (ORF, BR, SWR, Red Bull Studio)

  • Endnutzer: KI-basiertes Redaktionstool AIDitor in Deutschland und Österreich

  • Tools und Methoden: OpenAI, LLama, Ollama, Python, FastAPI, Azure SpeechServices, Azure Video Indexer, AWS (S3, Lambda, Rekognition, Bedrock, ECS, EC2), Postgres, pgVector, LangChain, PyTorch, YOLO v10, WhisperX, LongVU, Helicone, Docker, Google Gemini API, Terraform

Okt. 2023 - Mai 2025
1 Jahr 8 Monaten

Senior Data Engineer und technischer Berater DataVerse

Lufthansa Technik AG

  • Technisches Consulting und Greenfield-Entwicklung für AVIATAR 2.0

  • Technische Konzeption von Data-Pipelines und Datenarchitektur (DataVerse)

  • Hands-On-Entwicklung von End-to-End Data-Pipelines in PySpark Structured Streaming und Databricks

  • Automatisierte Dokumentationserstellung für alle Datenpipelines mit Azure OpenAI LLM und Azure AI Search: Transformation produktiver PySpark-Skripte und SQL-Notebooks via RAG für Volltextsuche, Business-Logik-Checks und Confluence-Dokumentation

  • Optimierung von Delta-Lake-Tabellen (Liquid Clustering, Photon)

  • Bereitstellung von Daten für KI- und ML-Projekte (Predictive Analytics)

  • Koordination mit dem Data-Platform-Team für Skalierung und Monitoring der Infrastruktur

  • Enge Zusammenarbeit mit Stakeholdern in der gesamten Lufthansa Technik und Anforderungsmanagement

  • Aufbau eines Testing-Frameworks in PySpark und automatisierte Release-Pipelines mit Azure DevOps

  • Projekt: Greenfield-Entwicklung von DataVerse als Digital Twin für Echtzeit-Monitoring der Teilelogistik

  • Businessziel: Echtzeit-Einblicke, Reporting und Messung der Bevorratung weltweit

  • Tools und Methoden: Databricks, Azure Dedicated SQL, Azure Synapse Analytics, Azure AI Search, Azure OpenAI Service (GPT 4o), Azure EventHub, Azure DevOps CI/CD, PySpark, PowerBI, Microsoft PurView, Python, Kafka, Oracle, Testing, Jira, Confluence, Scrum

Apr. 2023 - Okt. 2023
7 Monaten

Berater / Lösungsarchitekt

Volkswagen AG / CARIAD SE

  • Migration von On-Premise-Services nach AWS

  • Entwicklung von Python-Mapping-Skripten zur Datentransformation großer Testdatenmengen aus Software- und Hardwaretests

  • Entwicklung von Spring-Boot-Backends und React-Frontends für Self-Service-Dienste

  • Überführung von DB-Skripten von Oracle PL/SQL nach PostgreSQL

  • Skripting mit Terraform und Deployment von Docker-Containern

  • Projekt: Umstellung der Entwicklungslandschaft auf AWS mit nahtloser Überführung historischer Testdaten aus XRay ohne Datenverlust

  • Businessziel: Straffung der IT- und Datenlandschaft und Kosteneinsparung

  • Tools und Methoden: AWS, Terraform, Java, Python, SQL, Docker, Kubernetes, Helm Charts, GitLab, GitLab CI/CD, AWS EKS, AWS Glue, AWS Lambda, AWS CloudWatch, Spring Boot, Spring Data, Jira, Confluence, Scrum

Nov. 2021 - März 2023
1 Jahr 5 Monaten

Projektleiter, Architekturleiter

Sovendus GmbH

  • Leitung eines Teams externer Dienstleister bei der Erweiterung des AWS-Setups und CI/CD-Pipelines mit GitLab CI

  • Infrastrukturbereitstellung mit Terraform (IaC) und Implementierung von Cluster-Autoskalierungsdiensten für EMR in Python und Route 53 Auto-DNS

  • Unterstützung der Migration von On-Premise-MySQL-Datenbanken zu AWS RDS und eines 10 TB DWH zu AWS Aurora

  • Umstellung von AD auf AWS Identity Center und von Airflow On-Premise auf AWS MWAA und AWS MSK

  • Konzeption und Umsetzung transienter Cluster und Saving Plans zur AWS-Kostenreduzierung

  • Weiterentwicklung von Spring-Boot-Microservices für Datenauskunft, Invoicing und Partnerportal (Kubernetes, Docker)

  • Implementierung von KMS-Verschlüsselung (CMK)

  • Präsentation des Projektfortschritts und Kostenprognosen für C-Level-Entscheidungsträger

  • Projekt: Cloud-Transition und Aufbau einer skalierbaren Data Platform mit Airflow, Databricks Delta, Kafka und AWS-Services nach Scrum

  • Tools und Methoden: AWS, Terraform, Apache Airflow, Python, PySpark, MySQL, Docker, Kubernetes, Helm Charts, GitLab, GitLab CI, Presto, EMR, Hadoop, Hive, AWS (S3, Aurora, MSK, MWAA, RDS, Lambda, Athena, Glue, CloudWatch), Grafana, Jira, Confluence, Scrum

Mai 2019 - Okt. 2021
2 Jahren 6 Monaten

Technischer Leiter / Architekturleiter

Sovendus GmbH

  • Implementierung von Datenpipelines als Airflow DAGs in Python und PySpark

  • Weiterentwicklung des Datawarehouse-Datenmodells

  • Implementierung von KStreams und Spark Structured Streaming zur Verarbeitung von Event-Datastreams aus Kafka

  • Einführung von Airflow als Custom Docker Image

  • Aufbau eines Kubernetes-basierten Hochverfügbarkeits-Setups für Airflow mit Monitoring durch Grafana

  • Einführung von Confluent Enterprise mit Kafka Connect, Partitionern, SMTs und Schema Registry

  • Entwicklung eines Python-Frameworks zur Unterstützung neuer ETL-Pipelines in Airflow

  • Implementierung von Spring-Boot-Microservices für Datenauskunft (DSGVO)

  • Entwicklung einer neuen Datalake-Struktur mit Data Lineage und Data Governance

  • Migration von SQL-Datawarehouse-ETL von Talend nach Airflow und Databricks Delta auf AWS S3

  • Projekt: Analyse und Performance-Optimierung des Event-Processing und Migration analytischer Funktionen in die Cloud nach Scrum

  • Tools und Methoden: Apache Airflow, Python, Java, MySQL, Apache Spark, Redis, Docker, Kubernetes, Helm Charts, GitLab, GitLab CI, Confluent Enterprise, Presto, EMR, Hadoop, Hive, AWS (S3, Lambda, Athena, Glue, CloudWatch), Talend Big Data, Grafana, Jira, Scrum

Jan. 2019 - Apr. 2019
4 Monaten

Senior Data Engineer

SAP SE

  • Beratung und technische Unterstützung zu Apache Spark, Hyperscaling und Multi-Tenancy mit Streaming-Applikationen

  • Training von SAP-Teams in Spark Structured Streams

  • Begleitung der Umstellung von Spring-Boot-Microservices und Kafka auf Streaming-Architektur

  • Unterstützung beim Design einer skalierbaren Streaming-Aggregation-Engine für Zeitreihendaten

  • Programmierung von Datenpipelines in Scala

  • Unterstützung der Entwicklungslösungen in Java und Scala für Metering, Fault-Tolerance und Tenant-Partitionierung auf AWS/Cloud Foundry

  • Projekt: Optimierung einer Big-Data-Architektur für IoT-Zeitreihen-Daten mit Streaming-Lambda-Architektur

  • Tools und Methoden: Scala, SAP HANA, Cassandra, Kafka, Avro, Spark, Cloud Foundry AWS, Amazon Kinesis, Amazon EMR, Hazelcast, Redis, Java

Jan. 2018 - Dez. 2019
1 Jahr

Senior Data Engineer

Lufthansa AirPlus Servicekarten GmbH

  • Umsetzung einer Streaming-Data-Lösung mit Apache Kafka und Spark nach PoC

  • Verarbeitung und Anreicherung von Kreditkartentransaktionen aus TSYS/Seeburger via Kafka und Spark

  • Entwurf von HBase-Tabellen und Rowkey-Design sowie Architektur verteilter Komponenten

  • Implementierung von Duplicate-Flagging und Transaktionsverfolgung für Service Agents

  • Bereitstellung angereicherter Daten an SAP-Systeme

  • Entwicklung von Spring-Boot-Microservices für elektronische Abrechnung auf Kubernetes und Azure

  • Projekt: Aufbau einer eventgesteuerten Big-Data-Architektur mit Enterprise Data Lake in Azure (Cloudera Stack) nach Scrum

  • Tools und Methoden: Cloudera Enterprise (Kafka, Hadoop, Spark), Azure Cloud, HBase, OpenShift, Spring Boot, Kubernetes, Helm Charts, Docker, Maven, JUnit, Mockito, Hibernate, SAP, Oracle PL/SQL

Sept. 2016 - Dez. 2017
1 Jahr 4 Monaten

Technischer Leiter

Deutsche Börse AG

  • Umsetzung von IT-Security-Workflows und Compliance-Richtlinien für 2000 Benutzer in Atlassian JIRA

  • Design und Entwicklung einer Pre-Processing-Umgebung mit Kafka und Spark (Clustering, ML, NLTK) zur heuristischen Analyse von Security Reports und automatischer CVE-Zuweisung

  • Entwicklung von Java-Plugins für Atlassian JIRA zur Erweiterung von Workflows und REST-API

  • Design und Entwicklung von Oracle 11g-Backend-Datenbanken für IT Asset Management und Pre-Processing

  • Projekt: Prozessimplementierung für Security-Vulnerability-Handling in über 10000 Systemen der Deutschen Börse mit CISO-Reporting nach Scrum

  • Tools und Methoden: Atlassian JIRA, Java, Oracle 11g, PL/SQL, Python, Apache Spark, Kafka, ML, NLTK, Bash, Red Hat Linux, Apache Tomcat, Scrum, Kanban

Sept. 2014 - Aug. 2016
2 Jahren

Freiberuflicher Berater

Orientation In Objects GmbH / Accenture

  • Unterstützung bei der Implementierung von Atlassian Jira, Confluence und DevTools für mehrere Kunden

  • Administration von Kundensystemen und Continuous-Delivery-Pipelines mit JIRA, Bitbucket und Bamboo

  • Entwicklung von Plugins für Atlassian Stash für Merge-Checks und Build-Hooks

  • Umsetzung agiler Workflows in Atlassian JIRA und Bitbucket (z. B. GitFlow)

  • Konzeption und Implementierung einer Qualitätssicherungsplattform mit Jenkins, GitBlit, Gerrit und Groovy-Scripting

  • Konzeption eines Git-Workflows basierend auf GitFlow

  • Projekt: Atlassian-Produktintegration und Entwicklung einer Plattform für verteilte agile Teams

  • Tools und Methoden: Atlassian Jira, Confluence, Bamboo, Stash, Java, Groovy, Bash, Maven, SUSE Linux

Sprachen

Deutsch
Muttersprache
Englisch
Verhandlungssicher