Peter Brungs
Data Warehouse Berater (Entwicklung und Analyse)
Erfahrungen
Data Warehouse Berater (Entwicklung und Analyse)
Atruvia AG
- Entwicklung und Erweiterung von ETL-Datenbeladungsjobs mit IBM DataStage und SQL-Optimierung in einer IBM DB2 Umgebung im Rahmen der Agree21 Datenmigration
- Analyse der Datenqualität und Entwicklung von Testprozeduren
- Erstellung von Skripten in MS Powershell und Dokumentation von GIT-Deploymentprozessen
- Technologien: RedHat Linux, IBM DB2 mit DB Visualizer, IBM InfoSphere DataStage 11.7, JIRA, TortoiseGIT, TortoiseSVN, Powershell Skripts
Data Warehouse Berater (Entwicklung und Analyse)
Mobiliar Versicherung
- Entwicklung und Datenmodellierung eines neuen Data Warehouse Kerns nach Absprache mit Fachabteilung
- Adhoc Auswertungen und Risikoanalyse auf Basis DWH-Kern für Fachseite
- Unterstützung beim Aufbau eines Business Layers basierend auf dem DWH Kern
- Definition und Review von Daten Mappings
- Entwicklung und Erweiterung von ETL-Datenbeladungsjobs mit IBM DataStage und PL/SQL in einer Oracle, IBM DB2 (mit IDAA) und MS SQL Umgebung
- Analyse der Datenqualität und Entwicklung von Testprozeduren
- Prototyping von QuerySurge Routinen und Integration in IBM DataStage
- Einführung einer neuen Datenkomprimierung Funktionalität ins Data Warehouse
- Anbindung von Daten aus dem IBM CDC und dem Kafka/Avro Schema Registry und Kafka Connect Framework mit IBM DataStage und der Java Integration Stage
- Eingebunden in die Themenbereiche: Vertrag, Partner, Objekt, Produkt, Lokation, Schaden
- Aktualisierung von SAP BO Reports, Universen und List-of-Values
- Test und Aktualisierung von InfoBurst Konfigurationen
- Reverse Engineering von historischen ETL-Strecken und Fehlerbehebung
- Überwachung der täglichen Datenverarbeitung und Behebung von Beladungsproblemen bei PL/SQL, Unix-Skripten und ETL-Strecken
- Technologien: RedHat Linux, MS-SQL, IBM DB2 und Oracle 19c (JSON SQL), AQT/TOAD/SQL Developer, IBM InfoSphere DataStage 11.7, IBM CDC 11.4, Kafka/Avro Framework, Schema-Registry, QuerySurge, Enterprise Architect, JIRA, TortoiseGIT, SAP BO, InfoBurst
Data Warehouse Berater (Entwicklung und Analyse)
Postfinance
- Analyse der Datenqualität und Test der Konsistenz
- Erstellung und Laufzeitoptimierung von AdHoc SQL-Abfragen mit Indexoptimierung
- Prototyping von Partition- und Tablespace-Verteilung für große Tabellen
- Entwicklung von ETL-Datenbeladungsjobs in Python (Pandas) in einer IntelliJ Umgebung
- Optimierung der Datenabfragegeschwindigkeit in der Oracle DB durch Indexe, Pragmas und Partitionierung
- Technologien: Oracle 19c, TOAD, SQLDeveloper, IntelliJ mit Python (Pandas), JIRA, TortoiseGIT
Data Warehouse Berater (Entwicklung und Analyse)
Deutsche Bundesbank
- Datenmodellierung Core Datawarehouse (Data Vault 2.0) für internationale Bankdaten
- Entwicklung von ETL-Datenbeladungsjobs mit IBM DataStage und Unix Bash Scripting
- Prototyping von DataStage mit Unix-Steuerung und generischer ETL-Datenbeladung
- Erstellung und Beladung von Fehlerprotokolltabellen und Views
- Erstellung von Mapping Spezifikationen
- Erstellung von XML-SQL Abfragen, Views und Extraktionen
- Analyse der Datenqualität und Test der Konsistenz
- Target2 Anbindung von Stammdaten CRDM und Transaktionsdaten RTGS/CLM
- Technologien: IBM DB2, DB-Visualizer, IBM InfoSphere DataStage 11.7, SAP PowerDesigner, JIRA, TortoiseSVN
Data Warehouse Berater (Entwicklung und Analyse)
Mobiliar Versicherung
- Entwicklung und Datenmodellierung eines neuen Data Warehouse Kerns nach Absprache mit Fachabteilung
- Adhoc Auswertungen und Risikoanalyse auf Basis DWH-Kern für Fachseite
- Unterstützung beim Aufbau eines Business Layers basierend auf dem DWH Kern
- Definition und Review von Daten Mappings
- Entwicklung und Erweiterung von ETL-Datenbeladungsjobs mit IBM DataStage und PL/SQL in einer Oracle, IBM DB2 (mit IDAA) und MS SQL Umgebung
- Analyse der Datenqualität und Entwicklung von Testprozeduren
- Prototyping von QuerySurge Routinen und Integration in IBM DataStage
- Einführung einer neuen Datenkomprimierung Funktionalität ins Data Warehouse
- Anbindung von Daten aus dem IBM CDC und dem Kafka/Avro Schema Registry und Kafka Connect Framework mit IBM DataStage und der Java Integration Stage
- Eingebunden in die Themenbereiche: Vertrag, Partner, Objekt, Produkt, Lokation, Schaden
- Aktualisierung von SAP BO Reports, Universen und List-of-Values
- Test und Aktualisierung von InfoBurst Konfigurationen
- Reverse Engineering von historischen ETL-Strecken und Fehlerbehebung
- Überwachung der täglichen Datenverarbeitung und Behebung von Beladungsproblemen bei PL/SQL, Unix-Skripten und ETL-Strecken
- Technologien: RedHat Linux, MS-SQL, IBM DB2 und Oracle 19c (JSON SQL), AQT/TOAD/SQL Developer, IBM InfoSphere DataStage 11.7, IBM CDC 11.4, Kafka/Avro Framework, Schema-Registry, QuerySurge, Enterprise Architect, JIRA, TortoiseGIT, SAP BO, InfoBurst
Manager und Lösungsarchitekt
Ernst & Young
- Einführung eines neuen Versicherungsdatenmodells basierend auf IBM IAA (Partner, Vertrag, Provision, Schaden, Produkt Geschäftssystem) mit entsprechender Data Warehouse Architektur
- Anbindung von OpenData-Quellen mit MS-SSIS ETL-Werkzeug (WebServices/REST) für Banken
- Migration von MS Project Daten in eine Tableau Anwendung
- Erstellung eines Whitepapers zu Big Data Architekturen basierend auf Hadoop und zugehörigen Distributionen
- Technologien: IBM IAA, MS-SQL Server (SSIS/SSRS), SAP PowerDesigner, Big Data (Hadoop), Tableau
Teamleitung und Experte für Datenmigration
SOKA-Bau Versorgungskasse
- Teamleitung und Ansprechpartner bei der Auflösung von technisch-fachlichen Problemen
- Datenqualitätsanalyse von Vertrags- und Exkasso/Inkasso-Daten in einer Staging-DB und in der SAP GUI
- Datenmigration von externen Quellsystemen in ein neues SAP FS-CD System
- Ist-Analyse, Erstellung von Datenmappings und Datenanalyse in Zusammenarbeit mit dem Fachbereich
- Technologien: IBM DB2, UNIX, SAP GUI, SQL Analytic Queries und VBS Scripts
Data Warehouse Berater
Janitos
- Technische Leitung bei der Entwicklung eines neutralen Versicherungs-Datenmodells in ETL mit DataStage, Befüllung von Data Marts (Star-Schema) und Hub-Spoke-Architektur
- AD-Hoc Queries für das Management Information System in PL/SQL mit Explain und Parallelisierung
- Entwurf und Realisierung von Datenextraktionen nach Fachvorgaben für Provision-Schaden-Auswertung
- Optimierung von Datenextraktions-SQL für große Datenmengen
- Versionierung mit SVN
- Technologien: Oracle 11g (PL/SQL), Oracle Data Modeler, SVN, SAP BO, DataStage 8.7, Talend
IBM Websphere DataStage Spezialist
SAP
- Unterstützung bei Fehlerbehebung und Funktionserweiterung von ETL-Jobs eines CRM-Systems
- Funktionales Testen der SOAP-Komponenten und Unterstützung bei Softwareerweiterung
- Entwurf und Realisierung von ETL-Jobs zur Datenextraktion
- Erstellung von Entwicklungs- und Testdokumentation für DataStage
- Optimierung von Datenextraktions-SQL für große Datenmengen im CRM-System
- Einbindung von DataStage-Webservices in SAP NetWeaver
- Technologien: Windows Server 2003/2008, SAPGUI, DataStage 7.52, DB2, SoapUI, SAP NetWeaver
ETL-Experte für Datenintegration
Talanx-HDI-Gerling Versicherung
- Erstellung von technischen Fachkonzepten und Spezifikationen zur Migration von Daten aus externen Quellen in ein dispositives Datenbanksystem mit Stammdatenhaltung (MDM)
- Datenmodellierung und Datenbankdesign inklusive SQL-Optimierung und Vorgaben für den Datenbankadministrator
- Versionierung mit Jenkins und einem hauseigenen Werkzeug
- Entwurf und Realisierung von SQL-Skripten und ETL-Jobs zur Datenanalyse und -extraktion
- Migration von Daten aus Fremdsystemen und Integration ins Datenmodell durch SQL-Loader-Skripte in UNIX
- Erweiterung von ETL-Mappings und Dokumentation entsprechend Fachvorgaben
- Durchführung von Unit Tests (TAT/UAT) und Testdokumentation
- Design und Realisierung eines webbasierten Überwachungstools zur Fehleranalyse mit Java (JSP) und Webserverintegration
- Entwurf und Erweiterung von Steuerskripten (ksh) für ETL und Datenextraktion im JobScheduling
- Wartung und Erweiterung eines Frontend-Werkzeuges für Stammdaten-Darstellung im Webformat
- Technologien: AIX, DB2, Oracle 10, DataStage 7.52, SQL/XML, Tomcat, Java, Shell, Eclipse, Jenkins
Informatica-ETL DWH Berater
EuroHypo
- Realisierung, Dokumentation und Unit Tests von ETL-Mappings
- Konfiguration und Durchführung von Unit Tests
- Erweiterung bestehender ETL-Mappings entsprechend Businessanforderungen
- Impact Analysis und Dokumentation von ETL-Mapping-Erweiterungen für SAP-Systeme
- Programmierung von PL/SQL Stored Procedures
- GUI-Programmierung von Diagnosewerkzeugen für DB-Schnittstellen mit C#
- Technologien: AIX 6.1, Oracle 10, Informatica 7.1.3, TOAD 9.5, PL/SQL, Stored Procedures
Review und Optimierung ETL-Prozesse im Master Data Management
Bayer CropScience
- Review der Data Warehouse Architektur und Implementierung des Stammdaten-Projekts
- Design einer Blueprint-Dokumentation für das Stammdaten-Projekt (SDLC-Planung, Configuration Management)
- Analyse des bestehenden Datenmodells im Quellsystem (SAP) und Zielsystem (Oracle)
- Planung eines Reporting-Datenmodells und Mapping-Lösungen
- Datenmodellierung des Stammdaten-Systems inklusive Datenprofiling und Design eines neuen Datenmodells
- Planung von Datenextraktion und Datentransfer zwischen Quell- und Zielsystem
- Umsetzung von Businessvorgaben in technische Spezifikationen für ETL
- Technologien: IBM AIX, SAP, Oracle 10, DataStage 7.52, TOAD 9.5, PL/SQL, Stored Procedures
Data Warehouse Berater Review von ETL-Prozesse
Nordea Bank
- Code Review von DataStage-ETL-Implementierungen und PowerCenter-Informatica entsprechend Business Transformation Regeln
- Sicherstellung und Verbesserung der Datenqualität durch Abgleich von Daten, Datenstrukturen und Datenmodell
- Evaluierung der Mapping-Regeln gegen programmierte Stored Procedures
- Einführung eines neuen Dokumentationsstandards für Stored Procedures
- Entwurf von Prozessverbesserungen im Data Warehouse und Präsentation an das Management
- Technologien: IBM AIX, MS SQL Server, DataStage 7.52, SQL, Stored Procedures
ETL-Experte in der Basel II Realisierung
Raiffeisen Zentral Bank
- Daten- und Beziehungsvalidierung von Entitäten und Unterstützung der Business-Seite zur Verbesserung der Datenqualität
- Erstellung von SQL-Programmen zur Datenanalyse für Oracle DB
- Entwurf und Programmierung von ETL-Routinen fürs Ascential DataStage und Verbesserung bestehender Lösungen
- Test und Integration im IBM AIX Umfeld und Oracle Datenbank für das Fermat Analyse-Werkzeug
- Dokumentation und Erstellung von ETL-Mappings anhand von Business-Vorgaben
- Steuerung von DataStage-Jobs durch selbstentwickelte UNIX-Skripte
- Technologien: IBM AIX, Oracle 10, DataStage 7.52, KSH-Scripts, SQL, Stored Procedures, SVN
Data Warehouse ETL-Experte
Versicherungskammer Bayern
- Validierung des Datenmodells mit SQL-Skripten und Unterstützung der Modellierer bei Fakten- und Dimensionstabellen
- Programmierung von ETL-Routinen mit DataStage EE (Parallel Jobs)
- Test und Integration im IBM AIX Umfeld und IBM DB2 Datenbanken mit Ascential Profile Stage
- ETL-Konzeption und Realisierung von Schnittstellen im Rahmen des ETL- und Data-Warehouse-Projekts
- Technologien: Windows, Unix, Oracle, Ascential DataStage 7.52 EE
Analyst für IS-Lösungen
DHL GCC Europe
- Programmierung von ETL-Routinen fürs Ascential DataStage Data Warehouse mit Performanceanalyse, Tuning, Test und Integration im HP Unix Umfeld und IBM DB2 Datenbanken
- Definition der Datenextraktion und Festlegung von Datentransferstandards in Unix-Skripten und SQL
- Sicherstellung der Daten- und Prozessqualität durch Definition von Standards für Ascential DataStage Implementierung
- Definition länderspezifischer Datenbankschnittstellen-Standards für Oracle, IBM und MS-SQL
- Spezifizierung von Frontend- und Backend-Standards für eine Web-Benutzeroberfläche zur versionierten Verwaltung des Data Warehouse Prozesses mit PHP unter HPUnix
- Technologien: HP Unix, Oracle, DB2, DataStage/ProfileStage 7.5, Erwin, PHP, Unix-Skripte
Berater
- Schulung von objektorientierten Programmiertechnologien, Datenbankanwendungen und Computerarchitekturen
- Erstellung dynamischer räumlicher Webapplikationen mit XML/XSLT und VRML
- Entwurf dynamischer Webseiten mit JSP zur Anzeige von Datenbankinhalten
- Entwicklung dialogbasierter Java-Anwendungen zur Datenerfassung
- Analyse und Entwicklung von Assembler-Modulen und 3D-Visualisierungstechnologien
- Entwicklung von Versicherungssoftware auf Client-Server- und Großrechner-Systemen mit DB2
- Datenmigration von IBM-Großrechner-DB2 in Windows und OS/2 Umgebungen
- Qualitätsmanagement und Test von C/C++-Softwarelösungen für Versicherungsdaten
- Einführung schnellerer Datenbankzugriffs-Lösungen mit SQL und C++ unter DB2
- Entwurf von Java/JDBC- und JSP-Internetapplikationen
Industrie Erfahrung
Sehen Sie, wo dieser Freiberufler den Großteil seiner beruflichen Laufbahn verbracht hat. Längere Linien stehen für umfangreichere praktische Erfahrung, während kürzere Linien auf gezielte oder projektbezogene Arbeit hindeuten.
Erfahren in Versicherung (18 Jahre), Bank- und Finanzwesen (10.5 Jahre), Informationstechnologie (2 Jahre), Transport (2 Jahre), Landwirtschaft (1 Jahr) und Biotechnologie (1 Jahr).
Geschäftsbereich Erfahrung
Die folgende Grafik bietet einen Überblick über die Erfahrungen des Freiberuflers in verschiedenen Geschäftsbereichen, berechnet anhand abgeschlossener und aktiver Aufträge. Sie zeigt die Bereiche, in denen der Freiberufler am häufigsten zur Planung, Umsetzung und Erzielung von Geschäftsergebnissen beigetragen hat.
Erfahren in Business Intelligence (22 Jahre), Informationstechnologie (22 Jahre), Qualitätssicherung (5 Jahre) und Betrieb (1 Jahr).
Fähigkeiten
Data Warehouse
Business Intelligence
Big Data
Programmierung
Branchen: Versicherung
Branchen: Bank
Branchen: Logistik
Branchen: Chemie
Branchen: Regierung
Branchen: Softwarehersteller
It: Data Warehouse Design Und Architektur
It: Datenmigration Und Datenintegration
It: Big Data Anwendungen
It: Metadaten Management
It: Programmierung
It: Qualitätssicherung Von Daten Und Prozesse
Fachlich: Kranken-/ Lebens-/ Auto-/ Sachversicherung
Fachlich: Stammdaten Und Crm
Fachlich: Basel Ii / Target 2
Methoden: Projektmanagement
Methoden: Anforderungsmanagement
Methoden: Datenmodellierung
Methoden: Softwareengineering Und Sdlc
Methoden: Systemanalyse Und Systemintegration
Methoden: Qualitätsmanagement
Methoden: Release- Und Change
Methoden: Schulungen Und Anwendercoaching
Etl Werkzeuge: Ibm Datastage
Etl Werkzeuge: Informatica Powercenter
Etl Werkzeuge: Pentaho / Talend Data Integration
Etl Werkzeuge: Mircrosoft Ssis
Big Data: Kafka Framework Mit Connect, Avro Serialisierung, Schema Registry (Json)
Reportingwerkzeuge: Tableau
Reportingwerkzeuge: Sap Business Objects (+Ds)
Reportingwerkzeuge: Cognos
Datenmodellierung: Oracle Sql Developer Data Modeler
Datenmodellierung: Sap / Sybase Powerdesigner
Datenmodellierung: Ca Erwin Data Modeler
Programmiersprachen: C/c++/c# (Stl, Mfc, Generic Programming/templates)
Programmiersprachen: Java (Jsp, Servlets, Applets, J2ee (Struts/hibernate), Swing/awt)
Programmiersprachen: Python
Programmiersprachen: Php
Programmierwerkzeuge: Eclipse Umgebung Mit Entsprechenden Plugins
Programmierwerkzeuge: Ms Visual Studio
Programmierwerkzeuge: Make / Ant / Maven
Skriptsprachen: Javascript / Vbscript
Skriptsprachen: Shell (Ksh, Bash, Csh, Powershell)
Markupsprachen: Xml/xslt
Markupsprachen: Html
Markupsprachen: Vrml
Virtualisierung: Vmware
Virtualisierung: Virtualpc
Betriebssysteme: Windows
Betriebssysteme: Linux/unix
Betriebssysteme: Os/2
Betriebssysteme: Mvs/os390
Datenbanken: Ibm/db2 (Sql/xml+xpath/xquery), Ibm Cdc 11.4
Datenbanken: Oracle (Sql, Pl/sql)
Datenbanken: Mysql
Datenbanken: Sybase
Datenbanken: Ms Sql Server
Datenbanken: Teradata
Datenbanken: Firebird
Datenbankwerkzeuge: Aqt
Datenbankwerkzeuge: Toad 9.5
Datenbankwerkzeuge: Dbvisualizer
Datenbankwerkzeuge: Squirrel
Datenbankwerkzeuge: Sql Developer
Datenbankwerkzeuge: Sql Skripte
Datenbankwerkzeuge: Rapidsql
Datenbankwerkzeuge: Phpmyadmin
Datenbankwerkzeuge: Oo-programmierung Mit Embedded Sql User Defined Functions / Stored Procedures (Pl/sql, Transact Sql)
Datenbankwerkzeuge: Querysurge
Software: Samba
Software: Version Control (Subversion / Cvs / Pvcs / Git), Tortoise
Software: Apache/tomcat Webserver
Software: Gnu Toolchain
Software: Directory Server (Ldap)
Office Anwendungen: Ms Word
Office Anwendungen: Ms Excel
Office Anwendungen: Ms Access
Office Anwendungen: Ms Powerpoint
Office Anwendungen: Ms Visio
Office Anwendungen: Ms Project
Protokolle: Http
Protokolle: Tcp/ip
Protokolle: Ppp
Protokolle: Client/server Mit Socket Programmierung
Sprachen
Ausbildung
Staatlich geprüfter Technischer Assistent Elektrotechnik · Elektrotechnik
Universität Bonn
Diplom Informatiker · Informatik · Bonn, Deutschland
Allgemeine Hochschulreife (Abitur)
Zertifikate & Bescheinigungen
Prince 2 Projektmanagement
Profil
Frequently asked questions
Sie haben Fragen? Hier finden Sie weitere Informationen.
Wo ist Peter ansässig?
Welche Sprachen spricht Peter?
Wie viele Jahre Erfahrung hat Peter?
Für welche Rollen wäre Peter am besten geeignet?
Was ist das neueste Projekt von Peter?
Für welche Unternehmen hat Peter in den letzten Jahren gearbeitet?
In welchen Industrien hat Peter die meiste Erfahrung?
In welchen Bereichen hat Peter die meiste Erfahrung?
In welchen Industrien hat Peter kürzlich gearbeitet?
In welchen Bereichen hat Peter kürzlich gearbeitet?
Was ist die Ausbildung von Peter?
Ist Peter zertifiziert?
Wie ist die Verfügbarkeit von Peter?
Wie hoch ist der Stundensatz von Peter?
Wie kann man Peter beauftragen?
Durchschnittlicher Tagessatz für ähnliche Positionen
Die Tagessätze basieren auf aktuellen Projekten und enthalten keine FRATCH-Marge.
Ähnliche Freelancer
Entdecken Sie andere Experten mit ähnlichen Qualifikationen und Erfahrungen
Experten, die kürzlich an ähnlichen Projekten gearbeitet haben
Freelancer mit praktischer Erfahrung in vergleichbaren Projekten als Data Warehouse Berater (Entwicklung und Analyse)
Freelancer in der Nähe
Fachkräfte, die in oder in der Nähe von Köln, Deutschland arbeiten