Peter Brungs
Data Warehouse Berater (Entwicklung und Analyse)
Erfahrungen
Data Warehouse Berater (Entwicklung und Analyse)
Atruvia AG
- Entwicklung und Erweiterung von ETL-Datenbeladungsjobs mit IBM DataStage und SQL-Optimierung in einer IBM DB2 Umgebung im Rahmen der Agree21 Datenmigration
- Analyse der Datenqualität und Entwicklung von Testprozeduren
- Erstellung von Skripten in MS Powershell und Dokumentation von GIT-Deploymentprozessen
- Technologien: RedHat Linux, IBM DB2 mit DB Visualizer, IBM InfoSphere DataStage 11.7, JIRA, TortoiseGIT, TortoiseSVN, Powershell Skripts
Data Warehouse Berater (Entwicklung und Analyse)
Mobiliar Versicherung
- Entwicklung und Datenmodellierung eines neuen Data Warehouse Kerns nach Absprache mit Fachabteilung
- Adhoc Auswertungen und Risikoanalyse auf Basis DWH-Kern für Fachseite
- Unterstützung beim Aufbau eines Business Layers basierend auf dem DWH Kern
- Definition und Review von Daten Mappings
- Entwicklung und Erweiterung von ETL-Datenbeladungsjobs mit IBM DataStage und PL/SQL in einer Oracle, IBM DB2 (mit IDAA) und MS SQL Umgebung
- Analyse der Datenqualität und Entwicklung von Testprozeduren
- Prototyping von QuerySurge Routinen und Integration in IBM DataStage
- Einführung einer neuen Datenkomprimierung Funktionalität ins Data Warehouse
- Anbindung von Daten aus dem IBM CDC und dem Kafka/Avro Schema Registry und Kafka Connect Framework mit IBM DataStage und der Java Integration Stage
- Eingebunden in die Themenbereiche: Vertrag, Partner, Objekt, Produkt, Lokation, Schaden
- Aktualisierung von SAP BO Reports, Universen und List-of-Values
- Test und Aktualisierung von InfoBurst Konfigurationen
- Reverse Engineering von historischen ETL-Strecken und Fehlerbehebung
- Überwachung der täglichen Datenverarbeitung und Behebung von Beladungsproblemen bei PL/SQL, Unix-Skripten und ETL-Strecken
- Technologien: RedHat Linux, MS-SQL, IBM DB2 und Oracle 19c (JSON SQL), AQT/TOAD/SQL Developer, IBM InfoSphere DataStage 11.7, IBM CDC 11.4, Kafka/Avro Framework, Schema-Registry, QuerySurge, Enterprise Architect, JIRA, TortoiseGIT, SAP BO, InfoBurst
Data Warehouse Berater (Entwicklung und Analyse)
Postfinance
- Analyse der Datenqualität und Test der Konsistenz
- Erstellung und Laufzeitoptimierung von AdHoc SQL-Abfragen mit Indexoptimierung
- Prototyping von Partition- und Tablespace-Verteilung für große Tabellen
- Entwicklung von ETL-Datenbeladungsjobs in Python (Pandas) in einer IntelliJ Umgebung
- Optimierung der Datenabfragegeschwindigkeit in der Oracle DB durch Indexe, Pragmas und Partitionierung
- Technologien: Oracle 19c, TOAD, SQLDeveloper, IntelliJ mit Python (Pandas), JIRA, TortoiseGIT
Data Warehouse Berater (Entwicklung und Analyse)
Deutsche Bundesbank
- Datenmodellierung Core Datawarehouse (Data Vault 2.0) für internationale Bankdaten
- Entwicklung von ETL-Datenbeladungsjobs mit IBM DataStage und Unix Bash Scripting
- Prototyping von DataStage mit Unix-Steuerung und generischer ETL-Datenbeladung
- Erstellung und Beladung von Fehlerprotokolltabellen und Views
- Erstellung von Mapping Spezifikationen
- Erstellung von XML-SQL Abfragen, Views und Extraktionen
- Analyse der Datenqualität und Test der Konsistenz
- Target2 Anbindung von Stammdaten CRDM und Transaktionsdaten RTGS/CLM
- Technologien: IBM DB2, DB-Visualizer, IBM InfoSphere DataStage 11.7, SAP PowerDesigner, JIRA, TortoiseSVN
Data Warehouse Berater (Entwicklung und Analyse)
Mobiliar Versicherung
- Entwicklung und Datenmodellierung eines neuen Data Warehouse Kerns nach Absprache mit Fachabteilung
- Adhoc Auswertungen und Risikoanalyse auf Basis DWH-Kern für Fachseite
- Unterstützung beim Aufbau eines Business Layers basierend auf dem DWH Kern
- Definition und Review von Daten Mappings
- Entwicklung und Erweiterung von ETL-Datenbeladungsjobs mit IBM DataStage und PL/SQL in einer Oracle, IBM DB2 (mit IDAA) und MS SQL Umgebung
- Analyse der Datenqualität und Entwicklung von Testprozeduren
- Prototyping von QuerySurge Routinen und Integration in IBM DataStage
- Einführung einer neuen Datenkomprimierung Funktionalität ins Data Warehouse
- Anbindung von Daten aus dem IBM CDC und dem Kafka/Avro Schema Registry und Kafka Connect Framework mit IBM DataStage und der Java Integration Stage
- Eingebunden in die Themenbereiche: Vertrag, Partner, Objekt, Produkt, Lokation, Schaden
- Aktualisierung von SAP BO Reports, Universen und List-of-Values
- Test und Aktualisierung von InfoBurst Konfigurationen
- Reverse Engineering von historischen ETL-Strecken und Fehlerbehebung
- Überwachung der täglichen Datenverarbeitung und Behebung von Beladungsproblemen bei PL/SQL, Unix-Skripten und ETL-Strecken
- Technologien: RedHat Linux, MS-SQL, IBM DB2 und Oracle 19c (JSON SQL), AQT/TOAD/SQL Developer, IBM InfoSphere DataStage 11.7, IBM CDC 11.4, Kafka/Avro Framework, Schema-Registry, QuerySurge, Enterprise Architect, JIRA, TortoiseGIT, SAP BO, InfoBurst
Manager und Solutions Architect
Ernst & Young
- Einführung eines neuen Versicherungsdatenmodells basierend auf IBM IAA (Partner, Vertrag, Provision, Schaden, Produkt Geschäftssystem) mit entsprechender Data Warehouse Architektur
- Anbindung von OpenData-Quellen mit MS-SSIS ETL-Werkzeug (WebServices/REST) für Banken
- Migration von MS Project Daten in eine Tableau Anwendung
- Erstellung eines Whitepapers zu Big Data Architekturen basierend auf Hadoop und zugehörigen Distributionen
- Technologien: IBM IAA, MS-SQL Server (SSIS/SSRS), SAP PowerDesigner, Big Data (Hadoop), Tableau
Team Leitung und Data Migrations Experte
SOKA-Bau Versorgungskasse
- Teamleitung und Ansprechpartner bei der Auflösung von technisch-fachlichen Problemen
- Datenqualitätsanalyse von Vertrags- und Exkasso/Inkasso-Daten in einer Staging-DB und in der SAP GUI
- Datenmigration von externen Quellsystemen in ein neues SAP FS-CD System
- Ist-Analyse, Erstellung von Datenmappings und Datenanalyse in Zusammenarbeit mit dem Fachbereich
- Technologien: IBM DB2, UNIX, SAP GUI, SQL Analytic Queries und VBS Scripts
Data Warehouse Berater
Janitos
- Technische Leitung bei der Entwicklung eines neutralen Versicherungs-Datenmodells in ETL mit DataStage, Befüllung von Data Marts (Star-Schema) und Hub-Spoke-Architektur
- AD-Hoc Queries für das Management Information System in PL/SQL mit Explain und Parallelisierung
- Entwurf und Realisierung von Datenextraktionen nach Fachvorgaben für Provision-Schaden-Auswertung
- Optimierung von Datenextraktions-SQL für große Datenmengen
- Versionierung mit SVN
- Technologien: Oracle 11g (PL/SQL), Oracle Data Modeler, SVN, SAP BO, DataStage 8.7, Talend
IBM Websphere DataStage Spezialist
SAP
- Unterstützung bei Fehlerbehebung und Funktionserweiterung von ETL-Jobs eines CRM-Systems
- Funktionales Testen der SOAP-Komponenten und Unterstützung bei Softwareerweiterung
- Entwurf und Realisierung von ETL-Jobs zur Datenextraktion
- Erstellung von Entwicklungs- und Testdokumentation für DataStage
- Optimierung von Datenextraktions-SQL für große Datenmengen im CRM-System
- Einbindung von DataStage-Webservices in SAP NetWeaver
- Technologien: Windows Server 2003/2008, SAPGUI, DataStage 7.52, DB2, SoapUI, SAP NetWeaver
ETL-Experte Datenintegration
Talanx-HDI-Gerling Versicherung
- Erstellung von technischen Fachkonzepten und Spezifikationen zur Migration von Daten aus externen Quellen in ein dispositives Datenbanksystem mit Stammdatenhaltung (MDM)
- Datenmodellierung und Datenbankdesign inklusive SQL-Optimierung und Vorgaben für den Datenbankadministrator
- Versionierung mit Jenkins und einem hauseigenen Werkzeug
- Entwurf und Realisierung von SQL-Skripten und ETL-Jobs zur Datenanalyse und -extraktion
- Migration von Daten aus Fremdsystemen und Integration ins Datenmodell durch SQL-Loader-Skripte in UNIX
- Erweiterung von ETL-Mappings und Dokumentation entsprechend Fachvorgaben
- Durchführung von Unit Tests (TAT/UAT) und Testdokumentation
- Design und Realisierung eines webbasierten Überwachungstools zur Fehleranalyse mit Java (JSP) und Webserverintegration
- Entwurf und Erweiterung von Steuerskripten (ksh) für ETL und Datenextraktion im JobScheduling
- Wartung und Erweiterung eines Frontend-Werkzeuges für Stammdaten-Darstellung im Webformat
- Technologien: AIX, DB2, Oracle 10, DataStage 7.52, SQL/XML, Tomcat, Java, Shell, Eclipse, Jenkins
Informatica-ETL DWH Berater
EuroHypo
- Realisierung, Dokumentation und Unit Tests von ETL-Mappings
- Konfiguration und Durchführung von Unit Tests
- Erweiterung bestehender ETL-Mappings entsprechend Businessanforderungen
- Impact Analysis und Dokumentation von ETL-Mapping-Erweiterungen für SAP-Systeme
- Programmierung von PL/SQL Stored Procedures
- GUI-Programmierung von Diagnosewerkzeugen für DB-Schnittstellen mit C#
- Technologien: AIX 6.1, Oracle 10, Informatica 7.1.3, TOAD 9.5, PL/SQL, Stored Procedures
Review und Optimierung ETL-Prozesse im Master Data Management
Bayer CropScience
- Review der Data Warehouse Architektur und Implementierung des Stammdaten-Projekts
- Design einer Blueprint-Dokumentation für das Stammdaten-Projekt (SDLC-Planung, Configuration Management)
- Analyse des bestehenden Datenmodells im Quellsystem (SAP) und Zielsystem (Oracle)
- Planung eines Reporting-Datenmodells und Mapping-Lösungen
- Datenmodellierung des Stammdaten-Systems inklusive Datenprofiling und Design eines neuen Datenmodells
- Planung von Datenextraktion und Datentransfer zwischen Quell- und Zielsystem
- Umsetzung von Businessvorgaben in technische Spezifikationen für ETL
- Technologien: IBM AIX, SAP, Oracle 10, DataStage 7.52, TOAD 9.5, PL/SQL, Stored Procedures
Data Warehouse Berater Review von ETL-Prozesse
Nordea Bank
- Code Review von DataStage-ETL-Implementierungen und PowerCenter-Informatica entsprechend Business Transformation Regeln
- Sicherstellung und Verbesserung der Datenqualität durch Abgleich von Daten, Datenstrukturen und Datenmodell
- Evaluierung der Mapping-Regeln gegen programmierte Stored Procedures
- Einführung eines neuen Dokumentationsstandards für Stored Procedures
- Entwurf von Prozessverbesserungen im Data Warehouse und Präsentation an das Management
- Technologien: IBM AIX, MS SQL Server, DataStage 7.52, SQL, Stored Procedures
ETL-Experte in der Basel II Realisierung
Raiffeisen Zentral Bank
- Daten- und Beziehungsvalidierung von Entitäten und Unterstützung der Business-Seite zur Verbesserung der Datenqualität
- Erstellung von SQL-Programmen zur Datenanalyse für Oracle DB
- Entwurf und Programmierung von ETL-Routinen fürs Ascential DataStage und Verbesserung bestehender Lösungen
- Test und Integration im IBM AIX Umfeld und Oracle Datenbank für das Fermat Analyse-Werkzeug
- Dokumentation und Erstellung von ETL-Mappings anhand von Business-Vorgaben
- Steuerung von DataStage-Jobs durch selbstentwickelte UNIX-Skripte
- Technologien: IBM AIX, Oracle 10, DataStage 7.52, KSH-Scripts, SQL, Stored Procedures, SVN
Data Warehouse ETL-Experte
Versicherungskammer Bayern
- Validierung des Datenmodells mit SQL-Skripten und Unterstützung der Modellierer bei Fakten- und Dimensionstabellen
- Programmierung von ETL-Routinen mit DataStage EE (Parallel Jobs)
- Test und Integration im IBM AIX Umfeld und IBM DB2 Datenbanken mit Ascential Profile Stage
- ETL-Konzeption und Realisierung von Schnittstellen im Rahmen des ETL- und Data-Warehouse-Projekts
- Technologien: Windows, Unix, Oracle, Ascential DataStage 7.52 EE
Analyst für IS-Lösungen
DHL GCC Europe
- Programmierung von ETL-Routinen fürs Ascential DataStage Data Warehouse mit Performanceanalyse, Tuning, Test und Integration im HP Unix Umfeld und IBM DB2 Databases
- Definition der Datenextraktion und Festlegung von Datentransferstandards in Unix Scripts und SQL
- Sicherstellung der Daten- und Prozessqualität durch Definition von Standards für Ascential DataStage Implementierung
- Definition länderspezifischer Datenbankschnittstellen-Standards für Oracle, IBM und MS-SQL
- Spezifizierung von Frontend- und Backend-Standards für ein Web User Interface zur versionierten Verwaltung des Data Warehouse Prozesses mit PHP unter HPUnix
- Technologien: HP Unix, Oracle, DB2, DataStage/ProfileStage 7.5, Erwin, PHP, Unix Scripts
Berater
- Schulung von objektorientierten Programmiertechnologien, Datenbankanwendungen und Computerarchitekturen
- Erstellung dynamischer räumlicher Webapplikationen mit XML/XSLT und VRML
- Entwurf dynamischer Webseiten mit JSP zur Anzeige von Datenbankinhalten
- Entwicklung dialogbasierter Java-Anwendungen zur Datenerfassung
- Analyse und Entwicklung von Assembler-Modulen und 3D-Visualisierungstechnologien
- Entwicklung von Versicherungssoftware auf Client-Server- und Großrechner-Systemen mit DB2
- Datenmigration von IBM-Großrechner-DB2 in Windows und OS/2 Umgebungen
- Qualitätsmanagement und Test von C/C++-Softwarelösungen für Versicherungsdaten
- Einführung schnellerer Datenbankzugriffs-Lösungen mit SQL und C++ unter DB2
- Entwurf von Java/JDBC- und JSP-Internetapplikationen
Fähigkeiten
Data Warehouse
Business Intelligence
Big Data
Programmierung
Branchen: Versicherung
Branchen: Bank
Branchen: Logistik
Branchen: Chemie
Branchen: Regierung
Branchen: Softwarehersteller
It: Data Warehouse Design Und Architektur
It: Datenmigration Und Datenintegration
It: Big Data Anwendungen
It: Metadaten Management
It: Programmierung
It: Qualitätssicherung Von Daten Und Prozesse
Fachlich: Kranken-/ Lebens-/ Auto-/ Sachversicherung
Fachlich: Stammdaten Und Crm
Fachlich: Basel Ii / Target 2
Methoden: Projektmanagement
Methoden: Anforderungsmanagement
Methoden: Datenmodellierung
Methoden: Softwareengineering Und Sdlc
Methoden: Systemanalyse Und Systemintegration
Methoden: Qualitätsmanagement
Methoden: Release- Und Change
Methoden: Schulungen Und Anwendercoaching
Etl Werkzeuge: Ibm Datastage
Etl Werkzeuge: Informatica Powercenter
Etl Werkzeuge: Pentaho / Talend Data Integration
Etl Werkzeuge: Mircrosoft Ssis
Big Data: Kafka Framework Mit Connect, Avro Serialisierung, Schema Registry (Json)
Reportingwerkzeuge: Tableau
Reportingwerkzeuge: Sap Business Objects (+Ds)
Reportingwerkzeuge: Cognos
Datenmodellierung: Oracle Sql Developer Data Modeler
Datenmodellierung: Sap / Sybase Powerdesigner
Datenmodellierung: Ca Erwin Data Modeler
Programmiersprachen: C/c++/c# (Stl, Mfc, Generic Programming/templates)
Programmiersprachen: Java (Jsp, Servlets, Applets, J2ee (Struts/hibernate), Swing/awt)
Programmiersprachen: Python
Programmiersprachen: Php
Programmierwerkzeuge: Eclipse Umgebung Mit Entsprechenden Plugins
Programmierwerkzeuge: Ms Visual Studio
Programmierwerkzeuge: Make / Ant / Maven
Skriptsprachen: Javascript / Vbscript
Skriptsprachen: Shell (Ksh, Bash, Csh, Powershell)
Markupsprachen: Xml/xslt
Markupsprachen: Html
Markupsprachen: Vrml
Virtualisierung: Vmware
Virtualisierung: Virtualpc
Betriebssysteme: Windows
Betriebssysteme: Linux/unix
Betriebssysteme: Os/2
Betriebssysteme: Mvs/os390
Datenbanken: Ibm/db2 (Sql/xml+xpath/xquery), Ibm Cdc 11.4
Datenbanken: Oracle (Sql, Pl/sql)
Datenbanken: Mysql
Datenbanken: Sybase
Datenbanken: Ms Sql Server
Datenbanken: Teradata
Datenbanken: Firebird
Datenbankwerkzeuge: Aqt
Datenbankwerkzeuge: Toad 9.5
Datenbankwerkzeuge: Dbvisualizer
Datenbankwerkzeuge: Squirrel
Datenbankwerkzeuge: Sql Developer
Datenbankwerkzeuge: Sql Skripte
Datenbankwerkzeuge: Rapidsql
Datenbankwerkzeuge: Phpmyadmin
Datenbankwerkzeuge: Oo-programmierung Mit Embedded Sql User Defined Functions / Stored Procedures (Pl/sql, Transact Sql)
Datenbankwerkzeuge: Querysurge
Software: Samba
Software: Version Control (Subversion / Cvs / Pvcs / Git), Tortoise
Software: Apache/tomcat Webserver
Software: Gnu Toolchain
Software: Directory Server (Ldap)
Office Anwendungen: Ms Word
Office Anwendungen: Ms Excel
Office Anwendungen: Ms Access
Office Anwendungen: Ms Powerpoint
Office Anwendungen: Ms Visio
Office Anwendungen: Ms Project
Protokolle: Http
Protokolle: Tcp/ip
Protokolle: Ppp
Protokolle: Client/server Mit Socket Programmierung
Sprachen
Ausbildung
Staatlich geprüfter Technischer Assistent Elektrotechnik · Elektrotechnik
Universität Bonn
Diplom Informatiker · Informatik · Bonn, Deutschland
Allgemeine Hochschulreife (Abitur)
Zertifikate & Bescheinigungen
Prince 2 Projektmanagement
Ähnliche Freelancer
Entdecken Sie andere Experten mit ähnlichen Qualifikationen und Erfahrungen.