Erstellung einer Video-Metadaten-Pipeline (Detector, Tracker, Frame-Extraktion und Analyse)
Entwicklung eines Pre-Classifiers mit OpenAI GPT4.1 Vision und AWS Rekognition
Keyframe-Analyse mit OpenAI GPT4 Vision und Azure Video Indexer
Konzeption und Umsetzung einer RAG-Architektur mit LangChain und pgVector (OpenAI Embeddings)
Implementierung eines Long-Form Video Understanding und Activity Recognition-Moduls mit LongVU
Umsetzung eines Backend-APIs mit FastAPI für RAG-basierte Videosuche (OpenAI, LangChain, AWS Bedrock)
Erstellung von Voice-Over mit Google Text-to-Speech
Setup von Terraform und GPU-Cluster für LongVU mit LLM-Backends (LLama 3.2, QWEN)
LLM Prompt-Monitoring und Testing-Layer mit OpenAI und Helicone
Projekt: Entwicklung einer Zero-Shot-RAG-Anwendung zur Automatisierung von Kurzformaten für Rundfunkanstalten (ORF, BR, SWR, Red Bull Studio)
Endnutzer: KI-basiertes Redaktionstool AIDitor in Deutschland und Österreich
Tools und Methoden: OpenAI, LLama, Ollama, Python, FastAPI, Azure SpeechServices, Azure Video Indexer, AWS (S3, Lambda, Rekognition, Bedrock, ECS, EC2), Postgres, pgVector, LangChain, PyTorch, YOLO v10, WhisperX, LongVU, Helicone, Docker, Google Gemini API, Terraform
Technisches Consulting und Greenfield-Entwicklung für AVIATAR 2.0
Technische Konzeption von Data Pipelines und Datenarchitektur (DataVerse)
Hands-On-Entwicklung von End-to-End Data Pipelines in PySpark Structured Streaming und Databricks
Automatisierte Dokumentationserstellung für alle Datenpipelines mit Azure OpenAI LLM und Azure AI Search: Transformation produktiver PySpark-Scripts und SQL-Notebooks via RAG für Volltext-Suche, Business-Logik-Checks und Confluence-Dokumentation
Optimierung von Delta Lake Tables (Liquid Clustering, Photon)
Bereitstellung von Daten für AI- und ML-Projekte (Predictive Analytics)
Koordination mit dem Data Platform-Team für Skalierung und Monitoring der Infrastruktur
Enge Zusammenarbeit mit Stakeholdern in der gesamten Lufthansa Technik und Anforderungsmanagement
Aufbau eines Testing-Frameworks in PySpark und automatisierte Release-Pipelines mit Azure DevOps
Projekt: Greenfield-Entwicklung von DataVerse als Digital Twin für Echtzeit-Monitoring der Teilelogistik
Businessziel: Real-time insights, Reporting und Messung der Bevorratung weltweit
Tools und Methoden: Databricks, Azure Dedicated SQL, Azure Synapse Analytics, Azure AI Search, Azure OpenAI Service (GPT 4o), Azure EventHub, Azure DevOps CI/CD, PySpark, PowerBI, Microsoft PurView, Python, Kafka, Oracle, Testing, Jira, Confluence, Scrum
Migration von On-Premise Services nach AWS
Entwicklung von Python-Mapping-Skripten zur Datentransformation großer Testdatenmengen aus Software- und Hardwaretests
Entwicklung von Spring Boot-Backends und React-Frontends für Self-Service-Dienste
Überführung von DB-Skripten von Oracle PL/SQL nach PostgreSQL
Skripting mit Terraform und Deployment von Docker-Containern
Projekt: Umstellung der Entwicklungslandschaft auf AWS mit nahtloser Überführung historischer Testdaten aus XRay ohne Datenverlust
Businessziel: Streamlining der IT- und Datenlandschaft und Kostenersparnis
Tools und Methoden: AWS, Terraform, Java, Python, SQL, Docker, Kubernetes, Helm Charts, GitLab, GitLab CI/CD, AWS EKS, AWS Glue, AWS Lambda, AWS CloudWatch, Spring Boot, Spring Data, Jira, Confluence, Scrum
Leitung eines Teams externer Dienstleister bei der Erweiterung des AWS-Setups und CI/CD-Pipelines mit GitLab CI
Infrastrukturbereitstellung mit Terraform (IaC) und Implementierung von Cluster-Autoskalierungsdiensten für EMR in Python und Route 53 Auto-DNS
Unterstützung der Migration von On-Premise MySQL-Datenbanken zu AWS RDS und eines 10 TB DWH zu AWS Aurora
Umstellung von AD auf AWS Identity Center und von Airflow On-Premise auf AWS MWAA und AWS MSK
Konzept und Umsetzung transienter Cluster und Saving Plans zur AWS-Kostenreduzierung
Weiterentwicklung von Spring Boot-Microservices für Datenauskunft, Invoicing und Partnerportal (Kubernetes, Docker)
Implementierung von KMS-Verschlüsselung (CMK)
Präsentation des Projektfortschritts und Kostenprognosen für C-Level Entscheidungsträger
Projekt: Cloud Transition und Aufbau einer skalierbaren Data Platform mit Airflow, Databricks Delta, Kafka und AWS-Services nach Scrum
Tools und Methoden: AWS, Terraform, Apache Airflow, Python, PySpark, MySQL, Docker, Kubernetes, Helm Charts, GitLab, GitLab CI, Presto, EMR, Hadoop, Hive, AWS (S3, Aurora, MSK, MWAA, RDS, Lambda, Athena, Glue, CloudWatch), Grafana, Jira, Confluence, Scrum
Implementierung von Datenpipelines als Airflow DAGs in Python und PySpark
Weiterentwicklung des Datawarehouse-Datenmodells
Implementierung von KStreams und Spark Structured Streaming zur Verarbeitung von Event-Datastreams aus Kafka
Einführung von Airflow als Custom Docker Image
Aufbau eines Kubernetes-basierten Hochverfügbarkeits-Setups für Airflow mit Monitoring durch Grafana
Einführung von Confluent Enterprise mit Kafka Connect, Partitionern, SMTs und Schema Registry
Entwicklung eines Python-Frameworks zur Unterstützung neuer ETL-Pipelines in Airflow
Implementierung von Spring Boot-Microservices für Datenauskunft (DSVGO)
Entwicklung einer neuen Datalake-Struktur mit Data Lineage und Data Governance
Migration von SQL Datawarehouse-ETL von Talend nach Airflow und Databricks Delta auf AWS S3
Projekt: Analyse und Performance-Optimierung des Event-Processing und Migration analytischer Funktionen in die Cloud nach Scrum
Tools und Methoden: Apache Airflow, Python, Java, MySQL, Apache Spark, Redis, Docker, Kubernetes, Helm Charts, GitLab, GitLab CI, Confluent Enterprise, Presto, EMR, Hadoop, Hive, AWS (S3, Lambda, Athena, Glue, CloudWatch), Talend Big Data, Grafana, Jira, Scrum
Beratung und technische Unterstützung zu Apache Spark, Hyperscaling und Multi-Tenancy mit Streaming-Applikationen
Training von SAP-Teams in Spark Structured Streams
Begleitung der Umstellung von Spring Boot-Microservices und Kafka auf Streaming-Architektur
Unterstützung beim Design einer skalierbaren Streaming-Aggregation-Engine für Zeitreihendaten
Programmierung von Datenpipelines in Scala
Unterstützung der Entwicklungslösungen in Java und Scala für Metering, Fault-Tolerance und Tenant-Partitionierung auf AWS/Cloud-Foundry
Projekt: Optimierung einer Big Data Architektur für IoT-Zeitreihen-Daten mit Streaming-Lambda-Architektur
Tools und Methoden: Scala, SAP HANA, Cassandra, Kafka, Avro, Spark, CloudFoundry AWS, Amazon Kinesis, Amazon EMR, Hazelcast, Redis, Java
Umsetzung einer Streaming-Data-Lösung mit Apache Kafka und Spark nach PoC
Prozessierung und Anreicherung von Kreditkartentransaktionen aus TSYS/Seeburger via Kafka und Spark
Entwurf von HBase-Tabellen und Rowkey-Design sowie Architektur verteilter Komponenten
Implementierung von Duplicate-Flagging und Transaktionsverfolgung für Service Agents
Bereitstellung angereicherter Daten an SAP-Systeme
Entwicklung von Spring Boot-Microservices für elektronische Abrechnung auf Kubernetes und Azure
Projekt: Aufbau einer eventgetriebenen Big Data-Architektur mit Enterprise Data Lake in Azure (Cloudera Stack) nach Scrum
Tools und Methoden: Cloudera Enterprise (Kafka, Hadoop, Spark), Azure Cloud, HBase, OpenShift, Spring Boot, Kubernetes, Helm Charts, Docker, Maven, JUnit, Mockito, Hibernate, SAP, Oracle PL/SQL
Umsetzung von IT-Security-Workflows und Compliance-Richtlinien für 2000 Benutzer in Atlassian JIRA
Design und Entwicklung einer Pre-Processing-Umgebung mit Kafka und Spark (Clustering, ML, NLTK) zur heuristischen Analyse von Security Reports und automatischer CVE-Zuweisung
Entwicklung von Java-Plugins für Atlassian JIRA zur Workflow-Erweiterung und REST-API-Erweiterung
Design und Entwicklung von Oracle 11g-Backend-Datenbanken für IT Asset Management und Pre-Processing
Projekt: Prozessimplementierung für Security-Vulnerability-Handling in 10000+ Systemen der Deutschen Börse mit CISO-Reporting nach Scrum
Tools und Methoden: Atlassian JIRA, Java, Oracle 11g, PL/SQL, Python, Apache Spark, Kafka, ML, NLTK, Bash, Red Hat Linux, Apache Tomcat, Scrum, Kanban
Unterstützung bei Implementierung von Atlassian Jira, Confluence und DevTools für mehrere Kunden
Administration von Kundensystemen und Continuous Delivery Pipelines mit JIRA, Bitbucket und Bamboo
Entwicklung von Plugins für Atlassian Stash für Merge-Checks und Build-Hooks
Umsetzung agiler Workflows in Atlassian JIRA und Bitbucket (z. B. GitFlow)
Konzeption und Implementierung einer Qualitätssicherungsplattform mit Jenkins, GitBlit, Gerrit und Groovy Skripting
Konzeption eines Git Workflows basierend auf GitFlow
Projekt: Atlassian Produktintegration und Entwicklung einer Plattform für verteilte agile Teams
Tools und Methoden: Atlassian Jira, Confluence, Bamboo, Stash, Java, Groovy, Bash, Maven, SUSE Linux
Entdecken Sie andere Experten mit ähnlichen Qualifikationen und Erfahrungen.