Konsolidierung von Daten aus diversen Quellsystemen in einer klassischen DWH-Architektur auf Oracle-Basis und schrittweise Migration in die AWS-/Azure-Cloud unter Nutzung von Databricks. Bereitstellung der Daten für analytische und operative Zwecke, einschließlich Kampagnen-Management, IFRS-Berichtswesen und Provisionsabrechnung.
Bei einem der größten Versicherer unterstütze ich beim Aufbau eines Cloud-basierten Enterprise Data Warehouse auf Basis eines Data Lakes mit aufgesetztem Core DWH modelliert nach Grundsätzen von Data Vault. Im ersten Ansatz werden dabei die Daten des Schaden- und Bestandssystems Guidewire in eine fachlich orientierte und historisierte Data Vault Umgebung mit Hilfe von Wherescape transferiert und Abnehmern über definierte Schnittstellen zur Verfügung gestellt. Die zugrundeliegende Datenbank von Snowflake ist dabei in einer AWS-Cloud-Umgebung verortet.
Im Rahmen des Programms zur Einführung des neuen Bestands- und Schadensystems Syrius von Adcubum für den Komposit-Bereich eines großen deutschen Versicherers übernahm ich die Rolle des Data Warehouse Architect. In dieser Rolle war ich neben der grundlegenden DWH-Architektur auch für die Konzeption der verschiedenen Datenbewirtschaftungsaspekte (z.B. Harmonisierung, tritemporale Historisierung, Performance, Automatisierung, Fehlertoleranz und Wiederaufsetzbarkeit) zuständig. Um parallel zur Weiterentwicklung des Quellsystems flexibel auf die dadurch entstehenden Anpassungen in geeigneter Weise reagieren zu können, wurde für die Modellierung des Core DWH ein modifizierter Data Vault Ansatz gewählt. Die Datenhaltung fand in einer DB2 (BLU) statt. Da das primäre Quellsystem in großen Teilen dynamische und generische Konstrukte nutzte, wurde für die Überführung in den Raw-Vault ein metadatengetriebener, generischer Ansatz mit SQL (ergänzt um Java-Komponenten, z.B. für die geeignete Hashwertgenerierung) genutzt. Die Generatoren für die Verarbeitungslogik stellten dabei Views dar, die die ausführbaren Statements in geeigneter Form der Ablaufsteuerung zur Verfügung stellten. Die granulare Jobsteuerung und -protokollierung wurde dabei mit Java-Mitteln realisiert, welche in eine übergeordnete Ablaufsteuerung in Control-M eingebunden wurde. Neben dem sehr hohen Automatisierungsgrad waren die Performance und die möglichst eingriffsfreie Wiederaufsetzbarkeit im Fehlerfall wichtige Aspekte beim Design der Lösungsarchitektur.
In dem Projekt zur Realisierung des Jahresabschlusses nach IFRS17 unterstütze ich die Bereitstellung der Daten aus den verschiedenen Sparten-Bestandssystemen und dem Schadensystem in definierten Schnittstellen. Die Daten aus den operativen Systemen werden dabei in einem Data Lake auf Basis einer AWS Cloud in Oracle bzw. Snowflake vorgehalten. Über denodo werden die Daten aus dem Data Lake in eine standardisierte bitemporale Historisierung überführt und mit Hilfe von dynamischen, fachlich zugelieferten Transformationsvorgaben angereichert (Bildung der Aggregationsebene group-of-contract). Über die standardisierte Historisierung wurde eine halbautomatisierte Qualitätssicherung bzgl. der zeitlichen Abgrenzungskriterien ermöglicht. Die Definitionen fachlicher Plausibilitätsprüfungen werden dabei bereits beim Import der Daten aus den Quellsystemen mit Hilfe von Informatica PC/CDC angesetzt. Neben der Vorgabe von Modellierungsrichtlinien der Virtualisierungsschicht in denodo sind auch die Sicherstellung einer zufriedenstellenden Verarbeitungsgeschwindigkeit und Reproduzierbarkeit der Abfrageergebnisse zentrale Aspekte meines Aufgabenbereiches.
Im Rahmen des neu aufzubauenden zentralen spartenübergreifenden Data Warehouse unterstütze ich sowohl im Bereich Datenbewirtschaftung (Informatica) als auch FrontEnd (MicroStrategy). Neben allgemeinen Aufgabenstellungen liegt im Bereich der Bewirtschaftung mein Haupteinsatzgebiet bei der Konzeption und Implementierung einer tritemporalen (fachliche, technische Gültigkeit und DWH-Kenntnisstand) Historisierung auf Basis einer Data Vault Modellierung. Dabei sind insbesondere die Berücksichtigung von rückwirkenden Änderungen und die Wiederaufsetzbarkeit wichtige Kriterien. Ein weiterer Schwerpunkt liegt im Bereich der Performance-Optimierung für die verschiedenen ETL-Strecken. Im FrontEnd-Bereich übernehme ich die Qualitätssicherung der MicroStrategy-Implementierung im Bereich (Schema-)Modellierung, Standardberichte und Performance. Hierbei ist insbesondere die Transformation der Mart-Historisierung über Gültigkeitsbereiche in eine anwenderfreundliche Stichtags-Sichtweise auf Anwendungsebene ein wichtiges Thema. Neben Konzeption, Realisierung und Performance-Tuning der verschiedenen Standardberichte in den Bereichen Schaden, Rechtsschutz und In-/Exkasso betreue ich die DWH-Integration des Dokumenten Management Systems ganzheitlich in den Bereichen Business Analyse, Modellierung, Datenbewirtschaftung und FrontEnd. Dabei wurden diverse Cubes zur optimalen Performance-Unterstützung integriert und in Abhängigkeit der ETL-Prozesse aktualisiert.
Aufbau eines unternehmensweiten DWH im Bereich Marketing als Basis für die Kunden- bzw. Haushaltsselektion der zentralen Marketing-Kampagnen. Ein großer Fokus liegt dabei auf der Konsolidierung der Informationen aus den unterschiedlichen Unternehmensbereichen und deren performanten Bereitstellung. Meine Tätigkeit hierbei umfasst die Bereiche Anforderungsanalyse, Quellsystemanalyse, Datenmodellierung mit Erwin und Konzeption/Realisierung der Datenbewirtschaftung mit Informatica. Darüber hinaus unterstütze ich das Datenbewirtschaftungs-Team bei allgemeinen Fragestellungen (Performance-Optimierung, Historisierungs-Konzepte, etc.) und der Umsetzung der Anforderungen des Unternehmensbereiches Krankenversicherung. Im Bereich Krankenversicherung wurde z.B. als Hilfestellung für den Cognos-Cube-Aufbau komplexe Logik für die Vorberechnung der Aggregationen (External Rollup) mit Hilfe von Informatica bzw. DB2 realisiert.
Durchführung eines Proof-of-Concept (POC) zur Auswahl der geeigneten DWH-Datenbank bei einem führenden deutschen Einzelhandelsunternehmen. Im Rahmen des POC stehen primär die Anpassung der existierenden MicroStrategy-Umgebung und die Performance-Optimierung der vorhandenen Standardberichte im Mittelpunkt. Die Optimierung der VLDB-Settings auf die zugrundeliegende Datenbank und das zu erwartende Nutzungsverhalten stellt dabei ein zentrales Aufgabengebiet dar.
Konzeption, Vorbereitung und Durchführung von mehreren mehrtägigen Workshops in dem Bereich „ETL PowerCoaching“. Hierbei wurde insbesondere dem Thema Performance Optimierung ein sehr großer Stellenwert gegeben. Die Workshops dienten dazu, einen Know-how-Transfer für das interne ETL-Team zu realisieren. Dabei wurde großer Wert auf konkrete und praxisnahe Beispiele und Übungen aus den Bereichen Cache-Handling, Partitioning und Bottleneck-Analyse gelegt.
Erweiterung der schon realisierten Schnittstellen zur Integration der Vertriebsinformationen mehrerer verschiedener internationaler Tochterunternehmen in das Data Warehouse des Gesamtkonzerns mit Hilfe der Integrations-Tools von Informatica.
Durchführung der Qualitätssicherung und Optimierung der Datenbewirtschaftungs-Prozesse bei einem führenden deutschen Gashandelsunternehmen. Das Data Warehouse ist dabei auf einer Oracle Datenbank realisiert, bei der die Daten aus unterschiedlichen Quellsystemen mit der Toolpalette von Informatica in die verschiedenen DWH-Schichten überführt werden. Die Auswertungen werden darauf basierend mit der Analyse-Software von MicroStrategy realisiert. Durch die täglichen großen Datenmengen resultieren insbesondere Anforderungen an die ETL- und Berichtsperformance, die Optimierung der Delta-Ladeverfahren und die Realisierung der fachlich erforderlichen Versionierung.
Konzeptionierung von Prozessen zur Einführung von Banken-Produkten und Koordination deren Durchführung bei einem großen deutschen IT-Dienstleister, Rechenzentrum und Softwarehaus. Der Schwerpunkt lag dabei insbesondere bei der Aufnahme von Fremdsoftware in das Produktportfolio des Rechenzentrums und deren Bereitstellung bei über 400 Banken. Durch die Nutzung von Fremdsoftware im Zusammenspiel mit dem Rechenzentrums-eigenen Bankverfahren resultiert eine heterogene Systemlandschaft die trotzdem den hohen Anforderungen eines Rechenzentrumsbetriebs und den damit verbundenen Test- und Produktionseinführungsprozessen genügen muss.
Die Konsolidierung des bestehenden Data Warehouse als Outsourcing-Lösung im Bankensektor ist die Zielsetzung dieses Projektes bei einem großen deutschen IT-Dienstleister, Rechenzentrum und Softwarehaus. Im Rahmen des Projektes belege ich die Position des Data Warehouse Architekten und bin dabei für alle Fragestellungen im Rahmen der Datenmodellierung und Einbindung in die DWH-Architektur zuständig. Neben der Abbildung verschiedenster fachlicher Fragestellungen aus den unterschiedlichen Bereichen (z.B. Bankcontrolling, Wertpapier, Umsatzanalyse, Risikocontrolling etc.) liegt hierbei insbesondere der Fokus auf den Themengebieten Versionierung/Historisierung, Abbildung von flexiblen Hierarchien und Konsolidierung des gesamten Datenhaushaltes. Als Datenmodellierungswerkzeug wird IBM InfoSphere Data Architect eingesetzt. Die Datenbasis ist dabei eine DB2-Datenbank und als Analysewerkzeuge kommen die relationalen und multidimensionalen Produkte der Cognos-Toolfamilie zum Einsatz. Desweiteren wird die Eingabe von Plandaten und gekennzeichneten manuellen Daten durch den Fachbereich über verschiedene Business Cases mit Apparo Fast Edit realisiert. Dabei wird insbesondere die Nachvollziehbarkeit aller Daten und die Konsistenz des Datenhaushaltes sichergestellt. Die Bewirtschaftung der konsolidierenden DWH-Schicht wird über das Datenintegrationstool Sagent von PitneyBowes umgesetzt. Die Ablaufsteuerung der verschiedenen Pläne ist über UC4 geregelt. In meiner Position im Projekt übernehme ich ebenfalls Aufgaben der Qualitätssicherung in den Bereichen Modellierung (technische und fachliche Korrektheit, Anwendung der entsprechenden Konzepte), Datenintegration/ETL (Korrekte Abbildung der Fachlichkeit, Performance und Wartbarkeit) und Analysewerkzeug (Korrektheit und Performance).
Unterstützung einer der führenden deutschen Nahrungsmittel-Konzerne im Rahmen der Konzeption, Realisierung und Einführung eines konzernübergreifenden Vertriebsinformationssystems (VIS) als Basis eines unternehmensweiten Data Warehouse (Re-Design). Die Datenbewirtschaftung aus dem Mehrmandanten-SAP-System (direkt R/3 und CO-PA) in das DWH-System auf DB2-Basis wird mit dem ETL-Tool von Informatica realisiert. Hierbei findet die Konsolidierung und die Versionierung/Historisierung der Quelldaten der unterschiedlichen Konzern-Töchter statt. Als Datenhaltung für das Data Warehouse dient DB2/iSeries. Die Analysemöglichkeiten werden über MicroStrategy (relational) und Cubeware Cockpit (multidimensional auf Basis von Analysis Services) den Endanwendern zur Verfügung gestellt. Einen großen Stellenwert hat dabei die Konzeption und Realisierung einer Konsolidierung der Herstellkosten zur Eliminierung der Intercompany-Gewinne, die mehrstufige Sortimentsauflösung unter Einbindung der Materialkalkulation aus SAP und die berechtigungsgetriebene Darstellung des mehrstufigen Deckungsbeitragsschemas.
Zur Integration der Vertriebsinformationen mehrerer verschiedener internationaler Tochterunternehmen in das Data Warehouse des Gesamtkonzerns wurden verschiedene Schnittstellendefinitionen konzipiert und mit Hilfe der Integrations-Tools von Informatica realisiert. Innerhalb der heterogenen Systemlandschaft musste dabei ein mehrstufiges Deckungsbeitrags-Schema auf Basis verschiedener ERP-Systeme (z.B. VACOS und agma data) in den Schnittstellen abgebildet werden. Die zu verarbeitenden Informationen liegen in DB2, Informix- und Caché-Datenbanken vor. Als Zielplattform dient eine DB2 iseries Umgebung. Die Schnittstellen werden sowohl täglich als auch in einer konsolidierten monatlichen Fassung automatisiert bewirtschaftet. Dabei werden Problemfälle entsprechend dokumentiert, so dass eine Problembehebung durch die fachlich verantwortlichen Mitarbeiter erfolgen kann. Den Konzern-Mitarbeitern stehen verschiedene Standardberichte und die Möglichkeit zur flexiblen Analyse in der Berichtsplattform unter Cubeware Cockpit zur Verfügung. Dabei wird der Anwenderzugriff über das Berechtigungssystem Sparten-abhängig geregelt. Als Datenhaltung für die Data Mart Informationen wird SQL Server Analysis Services genutzt.
Unterstützung einer der weltweit führenden Hersteller von Aromastoffen im Rahmen des internationalen Data Warehouse. Im Bereich des weltweiten Analyse- und Berichts-Systems unterstütze ich den Kunden in Form von Experteneinsätzen bei komplexen Fragestellungen im Umfeld des Analyse-Tools von MiroStrategy.
Unterstützung einer der führenden deutschen Nahrungsmittel-Konzerne im Rahmen der Konzeption, Realisierung und Einführung eines konzernübergreifenden Einkaufsinformationssystems (EIS) und dessen Integration in das unternehmensweite Data Warehouse. Die Datenintegration aus verschiedenen Warenwirtschaftssystemen (SAP, GEAC und BRAIN) wurde mit Informatica realisiert. Dabei wurde besonderer Wert auf die Konsolidierung der Eingangsdaten der unterschiedlichen Konzern-Töchterfirmen und die versionierte/historisierte Datenhaltung gelegt. Als Datenhaltung für das Data Warehouse diente DB2/iSeries. Die Basis für die Analyseschicht in Form von Data Marts bilden verschiedene Cubes im Analysis Service des Microsoft SQL Servers. Der Zugriff der Endanwender auf die Analyse-Basis und verschiedene Standard-Reports (ABC-Analysen, Zeitraumbetrachtungen, etc.) wurde mit dem BI-Tool Cubeware Cockpit realisiert.
In diesem internationalen Data Warehouse Projekt bei einem großen deutschen Mobilfunkanbieter wurde eine Plattform aufgebaut, über die den globalen Großkunden länderübergreifende Kosten- und Nutzen-Berichte automatisiert zur Verfügung gestellt wurden. Die Integration der länderspezifischen Daten in das internationale Data Warehouse des Kunden wurde im Rahmen der Datenverarbeitung durch verschiedene Shell- und PL/SQL-Skripte realisiert. Dabei waren insbesondere Funktionen zur Sicherstellung der Datenqualität von großer Relevanz. Die Kunden-Berichte sowie verschiedene QS- und Administrations-Reports wurden mit Cognos ReportNet realisiert. Dabei wurden verschiedene Dashboard-Techniken in das Berichtswesen integriert, so dass den Kunden neben Detail-Informationen auf Rechnungsebene auch ein konsolidierter Überblick und Gegenüberstellung der verschiedenen Länderinformationen zur Verfügung stand.
Ziel des Projektes war die Einbindung zehn unterschiedlicher Leistungsbereiche einer Kranken- und Pflegeversicherung in das bereits bestehende Data Warehouse. Mein Aufgabengebiet lag dabei insbesondere in der Modellierung der Leistungsbereiche (darunter Apotheken, Ärzte, Fahrkosten, Heilmittel und Hilfsmittel) mit dem Standardtool ERwin von Computer Associates unter Berücksichtigung der Zielplattform DB2 und dem Analysetool MicroStrategy. Der Datenhaushalt wurde dabei im Rahmen der Informationsbedarfsanalyse (Anforderungsaufnahme und Dokumentation) in verschiedenen Workshops zusammen mit den Fachbereichen des Kunden ermittelt und anschließend in entsprechende logische und physische Datenmodelle überführt. Neben den fachlichen Informationsmodellen wurden ebenfalls die daraus resultierenden Modelle für das konsolidierte Core-DWH und die Data-Mart-Modelle der Leistungsbereiche unter besonderer Berücksichtigung der Anforderungen des Analysetools von MicroStrategy modelliert. Darüber hinaus wurden in Quelle-Ziel-Mappings über die verschiedenen Stufen die Quellen und Transformationsregeln identifiziert und dokumentiert.
Durchführung eines „Proof of concept“ bei einem großen deutschen Automobilhersteller. Ziel des Projektes war der Aufbau eines Prototypen mit MicroStrategy im Bereich der „After Sales“-Qualitätssicherung. In diesem Rahmen wurde ein System für die Produkt- und Diagnosebewährung konzipiert und realisiert. Ein besonderes Augenmerk lag dabei auf der Realisierung eines Frühwarnsystems.
Unterstützung einer der weltweit führenden Hersteller von Aromastoffen im Rahmen des internationalen Data Warehouse. Im Bereich des weltweiten Analyse- und Berichts-Systems unterstütze ich den Kunden neben den verschiedenen Teilprojekten in Form eines Experteneinsatzes bei komplexen Fragestellungen im Umfeld des Analyse-Tools von MiroStrategy.
Konzeption und Realisierung eines analytischen CRM-Systems auf Basis von unternehmensweiten Daten des CRM-Systems von Siebel und weiteren Quellsystemen. Dabei waren insbesondere die Analyse der Opportunities und deren Entwicklung im Zeitablauf von Relevanz.
Ein weiteres Teilprojekt befasste sich mit der Bereitstellung von Headcounting-Analysen. Dabei waren insbesondere die Flexibilität der Analysen und die Bereitstellung unterschiedlicher Sichtweisen im Fokus.
Realisierung von flexiblen Auswertungen im Bereich Controlling, bei denen die Darstellung der Preis- und Mengen-Effekte in sehr differenzierter Art gefordert war.
Eine Herausforderung in diesem Umfeld war die variable Identifizierung des wiederkehrenden Geschäftes auf Basis von flexiblen Umsatzentwicklungen auf der Ebene Kunde/Artikel. So kann der Anwender durch die Eingabe eines Prozentwertes definieren, ab wann ein Umsatz Neugeschäft, verlorenes Geschäft oder wiederkehrendes Geschäft darstellt.
Unterstützung einer großen deutschen Einzelhandelskette beim Aufbau, Optimierung und dem Betrieb des unternehmensweiten Data Warehouse im Bereich Analyse-Werkzeug. Eingesetzt wurde hier die komplette Produktpalette von MicroStrategy. Als relationale Datenbank wurde Teradata eingesetzt. Ein Teil des Projektes befasste sich mit der Konzeption der Analysemöglichkeiten im Bereich der zentralen Rechnungsprüfung auf Basis von SAP Retail. Ein weiterer Schwerpunkt in dem Projekt lag bei der Einführung und Weiterentwicklung eines geordneten Produktivsetzungsverfahrens.
Experteneinsatz beim Aufbau eines Prototyps zur Machbarkeitsanalyse im Bereich Analysewerkzeug bei einer großen deutschen Handelskette. Der Prototyp wurde auf Basis von MicroStrategy auf einer Teradata Datenbank realisiert. Insbesondere wurden hierbei verschiedene Analysen bis auf Bon-Ebene und umfangreiche Warenkorb-Analysen realisiert. Fragestellungen im Bereich Data Mining (z.B. Korrelation zwischen verschiedenen Produkten) wurden ebenfalls mit dem Standard-Werkzeug von MicroStrategy erfolgreich umgesetzt.
Für einen großen Dachverband deutscher Krankenkassen wurde ein Analysesystem für den Bereich der Rezepte und Verordnungen aufgebaut. Als Werkzeug zur Datenbewirtschaftung kam dabei Informatica PowerCenter zum Einsatz. Ziel des Einsatzes war auch ein Know-How-Transfer an die internen Mitarbeiter in Form von einem ganzheitlichen Coaching. Besonderes Augenmerk bei der Umsetzung der Anforderungen lag auf der Versicherten-Integration im zweistelligen Millionen-Bereich und das daraus resultierende Tuning. Die Integration und Bereinigung der Quelldaten der verschiedenen Krankenkassen des Verbandes war ein weiterer Schwerpunkt des Projektes.
Unterstützung des führenden Fleisch- und Wurstherstellers Europas im Rahmen des unternehmensweiten Data Warehouse. Im Vorfeld des eigentlichen DWH-Projektes habe ich verantwortlich die Toolauswahl des geeigneten Front-end-Werkzeuges in Abstimmung mit dem Kunden durchgeführt. Im Bereich der Datenanalyse wurde der Kunde bei verschiedenen Fragestellungen im Umfeld des Analyse-Tools von MicroStrategy unterstützt (Experteneinsatz). Im Bereich der Datenbewirtschaftung wurde der Planungsprozess (von manuellem Programm-Code) auf PowerCenter von Informatica portiert und funktional erweitert. Insbesondere der Bewertungsprozess der verschiedenen Kostenarten wurde automatisiert und mit einer komfortablen Auswertungsfunktion versehen. Die Ergebnisse ließen sich so innerhalb von einem MicroStrategy-System auf verschiedene Arten flexibel analysieren. Dabei wurden z.B. die Gründe für eine fehlerhafte oder nicht mögliche Bewertung für den Anwender transparent in flexiblen Standard-Berichten aufbereitet. In einem weiteren Teilprojekt wurde die flexible Sortimentsstruktur mit Hilfe von Informatica strukturiert im Data Warehouse abgelegt und für umfangreiche und komfortable Analysen mit MicroStrategy aufbereitet. Im Rahmen eines großen EAI-Projektes wurde die Teilung eines Tochterunternehmens in zwei rechtlich unabhängige Gesellschaften verwirklicht. Der Datenaustausch findet dabei über eine so genannte Datendrehscheibe statt. Dort werden entsprechende Daten unabhängig vom letztendlichen Zielsystem abgelegt und später weiter verteilt. Die automatisierte Koordination der hierfür notwendigen Schritte übernimmt die so genannte Prozesssteuerung, welche mit Hilfe von Informatica umgesetzt wurde.
Konzeption, Umsetzung, Produktivsetzung und Weiterentwicklung verschiedener Bewirtschaftungs-Komponenten für das Core-DWH und Data Marts bei einem großen deutschen Getränke-Konzern. Dabei wurden Analyse-Systeme aus den Bereichen Unternehmens- und Vertriebs-Controlling, Vertragsmanagement, Listungs-Kontrolle (über Erhebungen) und Objektbetreuung (Gastronomieakte) mit Daten beliefert. Durch die Entwicklung des Konzerns bedingt, wurde die Integration der (Alt-) Datenbestände neuer Konzerntöchter in das Data Warehouse in mehreren Varianten konzipiert und umgesetzt. Als Datenquellen wurde auf SAP R/3, verschiedene Flatfiles und weitere relationale Quellen zugegriffen. Im Rahmen der Datenbewirtschaftung kam Informatica PowerCenter zum Einsatz.
Beim weltweit größten Münzhandelshaus wurde ein umfangreiches Informationssystem auf Basis von MicroStrategy konzipiert und umgesetzt. In diesem Rahmen wurden z.B. für den Bereich der Abonnenten, Bestellungen und Neukundengewinnung verschiedene Analysemöglichkeiten geschaffen. Dabei wurde insbesondere eine sehr aufwändige Versionierung der Datenbestände berücksichtigt und die Abfrage von unterschiedlichen Zeitscheiben dem Anwender ermöglicht. Neben der eigentlichen Konzeption des Systems und Umsetzung der Anforderungen wurde auch das Coaching der hauseigenen Mitarbeiter erfolgreich durchgeführt.
Analytische Auswertung von Händlerbefragungen für einen großen deutschen Automobilhersteller mit Hilfe von Microsoft Analysis Services. Dabei wurden mehrsprachige Cubes aufgebaut und über MDX-Statements ausgewertet. Die Daten wurden dabei bis auf Vertrags- und Fragen-Ebene multidimensional vorgehalten und ausgewertet. Die Berichtsergebnisse wurden über XML for Analysis im Web ermittelt und in die geforderte Präsentationsform umgewandelt.
Bewirtschaftung mehrerer Schnittstellen für weitere Analyse-Systeme außerhalb der DWH-Infrastruktur mit Hilfe von Informatica PowerCenter (Version 5.1) bei einer großen schweizerischen Behörde. Als Quelle für die Schnittstellen dienten sowohl das Core Data Warehouse als auch der entsprechende Data Mart.
Review, Konzeption und Umsetzung eines internen Berichtswesens im Bereich Databasemarketing bei einem Versandhandel für Wein und Sekt mit der Analyse-Toolfamilie von MicroStrategy. Es wurden innerhalb des Einsatzes besondere Strategien zur Produktivsetzung von Analyse-Objekten erarbeitet und umgesetzt. Weiterhin fand auch ein Coaching der Kunden-Mitarbeiter statt.
Unterstützung im Rahmen eines Projektes zum Aufbau des unternehmensweiten Data Warehouses bei einer großen deutschen Bank. Dabei wurden sowohl in den Bereichen der Konzeption als auch deren Umsetzung Unterstützung geleistet:
Erarbeitung einer CRM-Charta im Rahmen eines CRM-Projektes bei einem großen deutschen Internet-Shop-Betreibers. Ermittlung der Anforderungen für den Bereich des Campaign-Management mit Hilfe von entsprechenden Workshops. Dabei wurden sowohl Aspekte des operativen als auch des analytischen CRM berücksichtigt.
Experten-Einsatz im Bereich EUREKA: Strategy bei einer großen deutschen Ersatzkasse. Durchführung von Qualitätssicherungs-Maßnahmen. Konzeption und Umsetzung von Lösungen fachlicher Problemstellungen, welche durch die Standard-Funktionalität von EUREKA: Strategy nicht umzusetzen waren. Dabei wurden insbesondere verschiedene Skripte entwickelt und Metadaten angepasst.
Weiterentwicklung des Analyse-Systems im Bereich des zentralen Netz-Controllings beim führenden deutschen Luftfrachtunternehmen. Dabei wurde eine unabhängige Entwicklungsumgebung aufgebaut und verschiedene Erweiterungs- und Verbesserungswünsche in dem MicroStrategy-basierten Analyse-System umgesetzt.
Experten-Einsatz im Bereich EUREKA: Strategy bei einer großen schwedischen Vertriebsorganisation für pharmazeutische Produkte. Durchführung von Qualitätssicherungs-Maßnahmen. Konzeption und Umsetzung von Lösungen fachlicher Problemstellungen, welche durch die Standard-Funktionalität von EUREKA: Strategy nicht umzusetzen waren. Dabei wurden insbesondere verschiedene Skripte entwickelt und Metadaten angepasst.
Umsetzung einer Web-basierten Reporting- und Analyse-Umgebung mit EUREKA:Strategy (CA) beim größten europäischen Einzelhandels-Konzern. Im Rahmen des Projektes wurden Analyse-Systeme für die verschiedenen Unternehmensbereiche realisiert. Neben den unten aufgeführten Teilprojekten wurde das Experten-Know-How für das hausinterne Data Warehouse Competence Center durchgängig zur Verfügung gestellt.
Durchführung eines Projektes zum Design und Aufbau eines unternehmensweiten Data Warehouses bei einer großen deutschen Krankenkasse. Im Rahmen des Projektes entwickelte ich verschiedene Konzepte zu den Themen Versionierung, Endanwenderzugriff, Qualitätssicherung und Datenmodellierung. Desweiteren habe ich die Auswahl des geeigneten Analysewerkzeuges (Front-end) durchgeführt und Aufgaben bei der Modellierung, Projektkoordination und Berichtserstellung (mit den Analysewerkzeugen aus der Brio-Toolfamilie) für die Berichtssysteme VIS (Vertriebsinformationssystem), BIS (Bestandsinformationssystem) und Krankengeld (Controlling) übernommen.
Entwicklung der Vorstudie für ein Data Warehouse im Bereich der Programm-Planung für einen großen privaten Fernsehsender. Dies beinhaltete auch die Durchführung von verschiedenen Workshops und eine umfangreiche Tool-Auswahl.
Im Rahmen des Einsatzes beim führenden deutschen Luftfrachtunternehmen wurden Analyse-Systeme für verschiedene Unternehmensbereiche realisiert. Dabei kamen sowohl die Analyse-Tools von CA (EUREKA: Strategy, damals noch Information Advantage) als auch MicroStrategy (DSS Suite) zum Einsatz. Neben den unten aufgeführten Teilprojekten wurde das Experten-Know-How für das hausinterne Data Warehouse Competence Center zur Verfügung gestellt.
Eigenverantwortliche Aufgabengebiete:
Discover other experts with similar qualifications and experience