Selektion und Klassifikation von Kunden nach Zielgruppen, um gezielte Informationen und Angebote bereitzustellen.
Erstellung und Implementierung von maschinellen Lernmodellen zur Kundensegmentierung und -klassifizierung.
Unterstützung bei der Migration von Postbank- zu Deutsche Bank-Systemen, einschließlich der Integration und Anpassung der Datenstrukturen.
Durchführung von Tests in neuen Prozessen, um die Funktionalität und Effizienz sicherzustellen.
Einsatz von DevOps-Praktiken und Continuous Integration/Continuous Deployment (CI/CD) zur Verbesserung der Entwicklungs- und Bereitstellungsprozesse.
Systemumgebung und Technologien: SAS, DB Developper, SQL, DB2, Jira, Confluence, OpenAI, CDWH, Python, Scrum, Agile, Dockers, LLM.
Apr. 2022 - Sept. 2022
6 Monaten
Nürnberg, Deutschland
Data Analyst, Data Scientist, SAS- und SQL-Entwicklung
ERGO AG
Analyse von Versicherungsdaten von Partnern zur Identifizierung von Trends, Mustern und Anomalien.
Durchführung statistischer Auswertungen von Kundenversicherungen in verschiedenen Portfolios zur Optimierung von Versicherungsprodukten und -diensten.
Entwicklung, Erstellung und Weiterführung von Programmen unter Verwendung von SAS und SQL zur Automatisierung und Verbesserung von Analyseprozessen.
Präsentation der Analyseergebnisse und Besprechung dieser mit den Geschäftsbereichen, um datenbasierte Entscheidungen zu unterstützen.
Sorgfältige Dokumentation der Ergebnisse und der entwickelten Programme zur Sicherstellung der Transparenz und Nachvollziehbarkeit der Arbeit.
Systemumgebung und Technologien: SAS Base, SAS EG, SQL, Mainframe Host, DB2, Jira, Confluence, Unix, Power BI.
Jan. 2021 - Apr. 2022
4 Monaten
Hannover, Deutschland
SAS- und SQL-Entwicklung
Finanz Informatik
Entwicklung und Weiterführung von Programmen zur Datenverarbeitung und -analyse unter Verwendung von SAS und SQL.
Durchführung von Tests zur Sicherstellung der Funktionalität und Genauigkeit der entwickelten Programme.
Sorgfältige Dokumentation der Testergebnisse und der entwickelten Programme zur Gewährleistung der Nachvollziehbarkeit und Transparenz der durchgeführten Arbeiten.
Überprüfung bestehender SAS-Programme und Entwicklung neuer Funktionen zur Optimierung der Datenverarbeitung und -analyse.
Erstellung und Verwaltung von JCL-Jobs zur Automatisierung und Steuerung von Batch-Prozessen auf dem Mainframe-Host.
Durchführung von Analysen in verschiedenen Versicherungssparten und Entwicklung entsprechender Lösungen zur Verbesserung der Geschäftsprozesse.
Systemumgebung: SAS Base, Mainframe Host, SAS Viya, DB2, ED, SQL, Unix, zOS, Jira, Confluence, Agile.
Jan. 2020 - März 2021
3 Monaten
Wuppertal, Deutschland
Data Scientist Spezialist, Statistik Entwickler SAS
Gefa Bank
Analyse und Entwicklung eines Tools zur Überwachung und Sicherstellung der Stabilität der Kundenpopulation.
Durchführung detaillierter Analysen von Risikoparametern zur Messung der Ausfallwahrscheinlichkeit von Krediten, um fundierte Entscheidungen im Kreditrisikomanagement zu unterstützen.
Entwicklung und Implementierung von Prozessen zur Teststatistik für verschiedene Stichproben, um die Zuverlässigkeit und Genauigkeit der Risikomessungen zu gewährleisten.
Systemumgebung: SAS-Base, SAS Enterprise Guide, Oracle.
Okt. 2020 - März 2021
6 Monaten
Berlin, Deutschland
Data Scientist, Text Analyse, Text Mining
Bundesdruckerei (Bdr) und Auswärtiges Amt
Entwicklung und Anwendung statistischer Modelle zur Krisenfrüherkennung durch die Analyse umfangreicher Datenmengen.
Implementierung von Text Mining-Techniken und Natural Language Processing (NLP)-Methoden mit spaCy und KI-Modellen zur Erkennung und Analyse von Texten und deren Ähnlichkeiten.
Erstellung statistischer Modelle zur Klassifikation von Fragen von Abgeordneten oder Fraktionen bezüglich Ministerien, um die Bearbeitung und Beantwortung effizienter zu gestalten.
Entwicklung von Modellen zur Erkennung von Kontakten zwischen bestimmten Personenkategorien (Treffen).
Implementierung von Methoden zur Erkennung von Wörtern und Synonymen in Texten.
Erstellung und Wartung von ETL-Pipelines und Jobprozessen zur effizienten Datenverarbeitung und -integration.
Zusammenarbeit mit Fachabteilungen zur Analyse und Abstimmung von Konzepten für das Guide Wire Center, insbesondere in den Bereichen Schaden, Buchhaltung/Rechnungswesen und Vertragswesen.
Überprüfung und Abnahme von IT-Konzepten, um sicherzustellen, dass sie den fachlichen Anforderungen entsprechen und umsetzbar sind.
Analyse der Schnittstellen zwischen fachlichen Anforderungen und IT-Konzepten, um eine nahtlose Integration und Kommunikation zu gewährleisten.
Entwicklung von Datenverarbeitungskonzepten zur Unterstützung der Geschäftsprozesse.
Implementierung von ETL-Strecken im SAS DDS DI Studio zur Erstellung und Beladung von Datamarts gemäß den Architektur- und Konzeptvorgaben.
Einsatz des Guide Wire Systems für die Verwaltung von Verträgen und Schadensfällen.
Umsetzung der entwickelten SAS DI Jobs in passenden Jobabläufen in Automic.
Unterstützung des Testmanagements bei der Durchführung und Analyse von Testfällen zur Sicherstellung der Qualität der implementierten Lösungen.
Erstellung und Pflege von Berichten zur Unterstützung der Entscheidungsfindung und Geschäftsprozesse.
Systemumgebung und Technologien: SAS DI Studio, SAS E-Guide, Automic, DB2, Jira, Confluence, Agile, Erwin Data Modeler, Tableau.
Feb. 2019 - Juni 2019
5 Monaten
Frankfurt, Deutschland
Data Engineer, Entwickler/Software Tester
Zürich Versicherung AG
Analyse bestehender Prozesse und Identifizierung von Verbesserungspotentialen zur Effizienzsteigerung.
Erstellung und Implementierung eines Prozesses für die Bilanzierung von KFZ-Katastrophen gemäß den IFRS 17 Vorschriften.
Optimierung und Beschleunigung der SAS-Systeme zur Verbesserung der Datenverarbeitungsleistung und Reduzierung der Verarbeitungszeiten.
Entwicklung und Dokumentation von Handlungsempfehlungen zur Bilanzierung auf Basis der neuen IFRS 17 Anforderungen.
Enge Zusammenarbeit und Abstimmung mit Stakeholdern aus den Bereichen Buchhaltung und Rückversicherung zur Sicherstellung der Anforderungskonformität und Integration der neuen Prozesse.
Erstellung von Dokumentationen zur Unterstützung der Regressionstests, um die Stabilität und Fehlerfreiheit der neuen Prozesse sicherzustellen.
Durchführung manueller Tests zur Überprüfung der Funktionalität und Genauigkeit der entwickelten Prozesse.
Systemumgebung: SAS-Base, SAS Macro, Microsoft Office, DB2 Xray, Jira, Confluence.
März 2017 - März 2020
3 Jahren 1 Monate
Mönchengladbach, Deutschland
Business Analyst/Data Scientist/Software Entwicklung/Software Testing
Santander Consumer Bank AG
Durchführung strategischer Analysen und Entwicklung von Scorekarten für verschiedene Portfolios zur Risikobewertung und Entscheidungsfindung.
Analyse von Fachkonzepten und deren Daten, um fundierte Entscheidungen und Optimierungen vorzunehmen.
Entwicklung der Logik für Verhaltens-Scores von Firmen- und Privatkunden unter Verwendung von Data Science-Techniken.
Analyse und Entscheidung über Kreditkartenlimits (Erhöhung oder Reduzierung) basierend auf der Scorekartenanalyse.
Leitung und Koordination des Entwicklungsteams zur Überwachung und Optimierung von Systemen und Prozessen.
Implementierung und Überwachung strategischer Analysen und der Scorekarten-Datenbank für verschiedene Portfolios.
Steuerung von Data Science-Analysen, Gestaltung und Management von Kampagnen zur Optimierung der Scorekarten-Nutzung.
Durchführung von A/B-Tests und Champion/Challenger-Tests zur Kalibrierung und Optimierung der Scorekarten.
Erstellung und Durchführung automatisierter Regressionstests sowie manueller Tests neuer Software und Anwendungen.
Identifizierung und Behebung von Fehlern im Prozess sowie Automatisierung von UAT-Tests.
Entwicklung und Testen neuer Softwareanwendungen und Tools, einschließlich eines "Operational Risk Tool" für Schadenmeldungen in der Bank.
Systemumgebung: Python, Pandas, Numpy, Tensorflow, SAS-Base, SAS Macro, SAS Enterprise Guide, R, ServiceNow, Javascript, Html, vue.js, Bootstrap, CSS, JIRA, SCRUM, Confluence, Bash Script, UNIX, Linux, QC, Microsoft Office, PL/SQL, SharePoint, ALM, Selenium, MS Azure, Oracle.
Dez. 2016 - Feb. 2017
3 Monaten
Eschborn, Deutschland
Qualitätssicherung/Modellierung von Kreditrisiko
VR Leasing AG
Entwicklung und Automatisierung von Prozessen zur Erstellung und Verwaltung von Bilanzdaten basierend auf vor-definierten Quelldateien.
Erstellung und Implementierung von Prozessen zur Bilanzierung nach IFRS 9, um den regulatorischen Anforderungen gerecht zu werden.
Überprüfung und Sicherstellung der Qualität aktueller Datenverarbeitungskonzepte, insbesondere hinsichtlich der Schnittstellen zu Cash-Flow-Modellen.
Einrichtung von Schedule Tasks zur täglichen automatischen Berechnung und Lieferung von Bilanzdaten, um einen reibungslosen Betriebsablauf zu gewährleisten.
Sicherstellung der Flexibilität beim Einlesen und Verarbeiten von Quelldateien, um die Anpassungsfähigkeit an verschiedene Datenquellen zu gewährleisten.
Anpassung und Umbau des SAS-Codes zur Steigerung der Effizienz und Leistung der Datenverarbeitungsprozesse.
Dokumentation der Betriebsprozesse und -verfahren in einem umfassenden Betriebshandbuch zur Unterstützung der Wartung und zukünftiger Anpassungen.
Systemumgebung: SAS-Base, SAS Macro, DI-Studio, SAS Enterprise Guide, Python, C++.
Entwicklung von Spezifikationen und Konzeption eines Data Warehouse-Systems, einschließlich der Planung und Durchführung eines Migration Projekts.
Durchführung von statistischen Analysen und Auswertungen zur Unterstützung von Geschäftsentscheidungen und der Verbesserung von Prozessen.
Anpassung bestehender und Modellierung neuer Scorekarten zur Bewertung von Kunden- und Geschäftsrisiken.
Durchführung der Migration eines Compliance-Marts zur Gewährleistung der Einhaltung regulatorischer Anforderungen.
Modellierung und Test von Data Warehouses zur Sicherstellung der Datenintegrität und -verfügbarkeit.
Konzeption und Umsetzung von ETL-Strecken zur Integration und Verarbeitung von Daten im Data Warehouse.
Anpassung und Weiterentwicklung bestehender Prozesse zur Optimierung der Datenverarbeitung und -analyse.
Überführung von Fachkonzepten in Datenverarbeitungskonzepte (DV-Konzepte) zur praktischen Implementierung in den IT-Systemen.
Entwicklung und Implementierung von Jobsteuerungen mit Control M zur Automatisierung und Überwachung von Batch-Prozessen.
Entwicklung und Implementierung von Tools zur Geldwäscheprävention gemäß den Anforderungen der BaFin.
Systemumgebung: SAS-Base, SAS Macro, DI-Studio, SAS Enterprise Guide, Oracle PL/SQL, Unix QC, Bash Script, ALM, OSPlus Sharepoint.
Juni 2015 - Feb. 2016
9 Monaten
Mönchengladbach, Deutschland
Data Analyst/Business Intelligence
ISBAN GmbH (Santander Consumer Bank AG)
Entwicklung und Implementierung statistischer Modelle zur Bewertung von Kreditrisiken.
Anpassung bestehender SAS-Programme und Entwicklung neuer Programme zur Verbesserung der Datenverarbeitung und Analyse.
Konzeption, Modellierung und Entwicklung von Datenstrukturen und Veröffentlichungen in verschiedenen Data Warehouses (DWH) und Marts.
Durchführung von Clusteranalysen zur Unterstützung und Optimierung von CRM-Kampagnen.
Analyse aller SEPA-Karten-relevanten Zahlungsverkehrsprozesse, wie z.B. EC-Karten-Transaktionen.
Erstellung von Spezifikationen für Business Intelligence und Data Warehousing, einschließlich Stage, Core und Marts.
Durchführung von Data Integration, Data Washing, Data Analysis, ETL-Prozessen sowie Data Mining und Data Profiling.
Erstellung von Reports zur Unterstützung der Geschäftsentscheidungen und zur Kommunikation von Analyseergebnissen.
Entwicklung und Implementierung von Jobsteuerungen zur Automatisierung von Datenverarbeitungsprozessen.
Konzeption und Implementierung von ETL-Prozessen zur effizienten Datenverarbeitung und -integration.
Systemumgebung: SAS-Base, SAS Macro, DI-Studio, R, Unix, Redmine, ALM, Sharepoint.
Apr. 2013 - Juni 2015
2 Jahren 3 Monaten
Stuttgart, Deutschland
Data Scientist/Statistik/Entwicklung für Kreditrisikosteuerung/Software Tester/Data Modellierung
Landesbank Baden-Württemberg (über ARA-Tec GmbH)
Entwicklung und Implementierung von Modellen zur Offenlegung und Bewertung von Impairment (Wertminderungen).
Entwicklung von Softwarelösungen für die Kreditrisikosteuerung und -berichterstattung.
Durchführung umfassender Tests von Data Warehouse-Prozess-Software, einschließlich Komponententest, Integrationstest, Systemtest und manuellem Test.
Modellierung und Implementierung von Methoden zur Berechnung des Credit Value at Risk.
Berechnung von Kreditrisiken, Konsortialaufrechnungen und Ratingmodellen.
Aufbau und Implementierung von Business Intelligence-Systemen und Data Warehouses zur Unterstützung der Risikoanalyse und Berichterstattung.
Automatisierung von Prozessen zur Erstellung und Verteilung von Kreditrisiko-Reports.
Entwicklung und Implementierung statistischer Modelle für das Rating von Kreditnehmern.
Umsetzung ausgewählter Entwicklungsaufgaben im Finanzdienstleistungs- und Pharmabereich.
Implementierung von ETL-Prozessen zur effizienten Speicherung und Verarbeitung von Daten im Data Warehouse.
Entwicklung eines OLAP-Prototyps für Kreditrisiko-Reporting, einschließlich Zeitreihenberichten, Migrationsbewegungen und Drill-down-Analysen.
Spezifikation und Konzeption von Datenbanklösungen, Datenmodellierung und Design von Datenbank-Schnittstellen und -Layern.
Historisierung, Versionierung und Freigabe von Bewegungsdaten.
Systemumgebung und Technologien: UML, Microsoft Visio, C++, SAS-Base 9.3, SAS E-Guide, Unix, Linux, JAVA Pentaho, Saiku, SAS DI Studio, MS Visio, R, ALM.
Okt. 2011 - März 2012
6 Monaten
Ludwigshafen, Deutschland
Statistische Beratung des Automatic-Dishwashing-Labors (Praktikum)
BASF
Durchführung von Datenmanagement, explorativen und deskriptiven Analysen zur Unterstützung der Forschungsprojekte des Labors.
Analyse und Interpretation der statistischen Ergebnisse, um fundierte Erkenntnisse und Empfehlungen zu liefern.
Einführung und Schulung der Mitarbeiter in der Programmierung mit R, um die internen Analysefähigkeiten zu verbessern.
Systemumgebung: R, R-ggplot2, Oracle, Linux.
Apr. 2010 - Feb. 2012
1 Jahr 11 Monaten
Dortmund, Deutschland
Praktische Tätigkeiten während des Studiums
TU Dortmund
Masterarbeit: Thema: Vorhersage von Zitathäufigkeiten medizinischer Publikationen. Beschreibung: Entwicklung und Anwendung von statistischen Modellen zur Prognose der Zitierhäufigkeit wissenschaftlicher Artikel im medizinischen Bereich.
Seminar: Thema: ROC-Kurve für logische Regeln. Beschreibung: Analyse und Interpretation der ROC-Kurve (Receiver Operating Characteristic) zur Bewertung der Leistung logischer Regelbasen in Klassifikationsaufgaben.
Deskriptive Datenanalyse: Schlafverhalten von Säugetieren: Untersuchung und Analyse des Schlafverhaltens verschiedener Säugetierarten.
Deskriptive Datenanalyse: Vorkommen von Calcium, anorganischem Phosphor und alkalischer Phosphatase bei über 65-Jährigen: Statistische Analyse der Konzentrationen dieser Substanzen bei Senioren zur Bewertung möglicher gesundheitlicher Implikationen.
Deskriptive Datenanalyse: Auswirkung des Sicherungssystems auf die Schwere von Kopfverletzungen bei Autounfällen ermittelt durch Crash-Tests: Bewertung der Wirksamkeit von Sicherheitssystemen in Autos anhand von Crash-Test-Daten zur Abschätzung der Reduzierung von Kopfverletzungen.
Deskriptive Datenanalyse: Zusammenhang zwischen sozialen Rängen von Söhnen und Vätern: Untersuchung des Zusammenhangs zwischen den sozialen Statuspositionen von Vätern und deren Söhnen.
Deskriptive Datenanalyse: Entwicklung eines Preismodells für Brillanten: Erstellung eines statistischen Modells zur Preisgestaltung von Brillanten basierend auf verschiedenen Faktoren und Marktbedingungen.
Deskriptive Datenanalyse: Zusammenhang zwischen Rauchen und Lungenkrebs: Analyse der epidemiologischen Daten zur Untersuchung des Zusammenhangs zwischen Rauchen und dem Risiko für Lungenkrebs.
Deskriptive Datenanalyse: Entscheidung im Falle einer Kreditanfrage anhand eines baumbasierten Klassifikationsverfahrens: Anwendung von Entscheidungsbaum-Verfahren zur Modellierung und Vorhersage von Kreditanfragen.
Deskriptive Datenanalyse: Meta-Analyse für Brustkrebs-Patientinnen: Durchführung einer Meta-Analyse, um die Ergebnisse mehrerer Studien zu Brustkrebs zusammenzufassen und zu interpretieren.
Deskriptive Datenanalyse: Vorhersage in Zeitreihenanalyse: Entwicklung und Anwendung von Zeitreihenmodellen zur Vorhersage zukünftiger Datenpunkte basierend auf historischen Zeitreihendaten.
Zuständig für die makroökonomische Faktoren im Rahmen des Projekts "Statistische Modellierung aus makroökonomischen Faktoren".
Entwicklung von Regressionsmodellen, die aus makroökonomischen Faktoren die Ausfallraten in verschiedenen Ländern schätzen.
Auswertung und Aufbereitung diverser vorliegenden makroökonomischer Daten und Zeitreihen.
Entwicklung einer Angemessenheitsanalyse zur Verwendung von Expected Default Frequencies (EDF’s).
Erstellung von interaktiven Dashboards mit Tableau.
Schreiben von Entwicklungsdokumentationen.
Systemumgebung und Technologies: R, Tableau.
Frankfurt, Deutschland
SAS-Host, Python und SQL-Entwicklung, Softwaretest
KfW Bank
Durchführung detaillierter Analysen bestehender Systeme und Weiterentwicklung von Anwendungen zur Verbesserung der Bankprozesse.
Entwicklung, Erstellung und Weiterführung von Programmen und Skripten unter Verwendung von SAS, Python und SQL.
Regelmäßige Besprechung und Abstimmung der Ergebnisse mit den Fachabteilungen, um sicherzustellen, dass die entwickelten Lösungen den Geschäftsanforderungen entsprechen.
Sorgfältige Dokumentation der Ergebnisse und der entwickelten Programme, um Transparenz und Nachvollziehbarkeit der durchgeführten Arbeiten zu gewährleisten.