In meiner Rolle war ich verantwortlich für den EDI-Import und die Zuordnung der Daten aus dem Bestellsystem, was das Importieren von Flat-ASCII-Dateien in Oracle 12c mit ODI beinhaltete.
Eine geringe Anzahl Linux-Skripte wurde verwendet, um die Dateien zu bearbeiten, für den Import vorzubereiten und von einem SFTP-Server abzurufen.
Anschließend entwickelte ich die Zuordnungen im Data Integrator, um die Datenflüsse für die verschiedenen Schnittstellen zu splitten und zu verarbeiten. Das beinhaltete auch komplexe Logik, um die Daten in der Staging-Schicht zu normalisieren.
Entwicklung der Datenauswertung aus Flat-ASCII-Dateien in Rohdatentabellen in der Datenbank.
Entwicklung des Aufteilens und Zuordnens von Daten im ODI-ETL-Tool für die Staging-Schicht im DWH.
Entwicklung komplexer DWH-Zuordnungen zur Verarbeitung von Bestelldaten.
DWH-Entwicklung in Oracle mit dem Oracle Data Integrator ETL-Tool.
Migration von Linux-basierter Datenintegration zu einer vollständig autonomen Oracle-Datenbank.
Extraktion von Daten aus fest abgegrenzten ASCII-Dateien in Rohdaten.
Entwicklung von Datenflüssen und Zuordnungen in die Staging-Umgebung.
Apr. 2023 - Juli 2023
4 Monaten
Frankfurt, Deutschland
Dateningenieur
Deutsche Bahn
In meiner Rolle war ich verantwortlich für die Entwicklung einer neuen Smart-HR-Lösung. Dabei habe ich Daten in Blob-Form aus einem Azure-Container mit Python extrahiert und in Data Frames umgewandelt. Anschließend wurden die Daten in die Oracle-Staging-Schicht zur weiteren Verarbeitung importiert.
Danach habe ich die Daten im DWH weiterverarbeitet, indem ich das vorhandene SAP BODS ETL-Tool genutzt habe und die Migration des Prozesses für gültige Mitarbeitendendaten abgeschlossen habe.
Entwicklung einer neuen Smart-HR-Lösung durch Extraktion von Blob-Daten aus einem Azure-Container mit Python.
Umwandlung der extrahierten Daten in Data Frames zur weiteren Verarbeitung.
Import der umgewandelten Daten in die Oracle-Staging-Schicht.
Nutzung des SAP BODS ETL-Tools für zusätzliche Datenumwandlung und -integration.
DWH-Entwicklung in Oracle mit Python und dem SAP BODS ETL-Tool.
Datenauszug aus Azure-Container mit Python in Data Frames für die Staging-Schicht.
Entwicklung mit dem SAP BODS ETL-Tool zur Übertragung von Daten aus der Staging-Schicht in Core und Mart.
März 2023 - Bis heute
2 Jahren 7 Monaten
Leipzig, Deutschland
Dateningenieur/ ETL-Entwickler
Deutsche Bahn
Als Mitglied des VDM-ETL-Teams arbeitete ich am 3DV-Projekt der Deutschen Bahn, das das Erstellen und Aktualisieren mehrerer komplexer ETL-Jobs beinhaltete, um Tarifdaten in SQLite-Dateien für den Input Pool zu mappen.
Die Quelldaten in der PostgreSQL-Datenbank wurden extrahiert, über eine H2-Datenbank transformiert und mit dem Talend-ETL-Tool in die SQLite-Datenbank für DBs MT- und Fahrkartenautomaten gemappt.
Ich arbeitete eng mit den Requirement Engineers und Data Managern zusammen, um die Tickets erfolgreich in einer agilen Arbeitsumgebung zu entwickeln.
Entwicklung der Datenauswertung aus PostgreSQL mit dem Talend-ETL-Tool.
Entwicklung von SQL/PL-SQL-Skripten und Views nach Bedarf für den ETL-Prozess.
Verwendung des GIT-Repositories zusammen mit dem bestehenden CI/CD-Prozess in Verbindung mit Tests und Deployment in Produktion.
Entwicklung von DB-Tarifdaten mit dem Talend-ETL-Tool.
SQL-Entwicklung in PostgreSQL im Zusammenhang mit dem IPP-DWH der DB.
Extraktion, Transformation und Laden von Daten mit komplexen ETL-Jobs.
Migration von Talend 7.3 zur Talend Enterprise Cloud Edition 8.
Aug. 2021 - März 2023
1 Jahr 8 Monaten
Hagen, Deutschland
Talend-Snowflake-Entwickler
Douglas GmbH
Als Mitglied des Data-Analytics-Teams bei Douglas war meine Hauptaufgabe die Entwicklung und Implementierung von Talend-Jobs mit modernen Snowflake-Komponenten für ELT. Meine Kernverantwortung lag im effizienten Übertragen großer Datenmengen aus dem Staging-Bereich sowohl in den Data Lake als auch in die Core-DWH-Schicht des Snowflake Data Warehouse.
Während dieser Zeit habe ich aktiv verschiedene Data-Engineering-Aufgaben übernommen, einschließlich Duplikatbeseitigung und Historisierung, um die Integrität und Zuverlässigkeit der Daten sicherzustellen. Ich war an der Konfiguration der Azure Data Factory beteiligt, um die Daten für die Snowflake-Integration vorzubereiten. Außerdem nutzte ich meine Erfahrung mit Talend SAP BAPI-Konnektoren für eine SAP-HANA-Schnittstelle. Ich habe komplexe Geschäftslogik angewendet, um Daten aus RFCs zu extrahieren und erfolgreich in Snowflake zu mappen.
Entwicklung und Implementierung von Talend-Jobs mit Snowflake-Komponenten für effiziente ELT-Datenverarbeitung.
Übertragung großer Datenmengen aus dem Staging-Bereich in den Data Lake und in Core-Schichten des Snowflake Data Warehouse.
Durchführung von Data-Engineering-Aufgaben, einschließlich Duplikatbeseitigung und Historisierung, zur Sicherstellung der Datenintegrität und -zuverlässigkeit mit Data Vault 2.0.
Nutzung von Talend-Konnektoren und Anwendung komplexer Geschäftslogik zur Extraktion von Daten aus vorgelagerten Schnittstellen.
DWH-Entwicklung in Snowflake mit Talend ELT und Data Vault 2.0.
Durchführung von Data-Engineering-Aufgaben, einschließlich komplexer Views für Data Marts.
Duplikatbeseitigung und Historisierung zur Sicherstellung der Datenintegrität für Stammdaten.
SAP-RFC-Schnittstelle mit Talend-BAPI-Konnektor und Datenextraktion/-zuordnung.
Nov. 2020 - Juli 2021
9 Monaten
Stuttgart, Deutschland
Talend-ETL-/Tableau-Reporting-Entwickler
Daimler TSS
Entwicklung von ETL-Jobs für das DWH mit Talend ESB zur Migration von HP ALM zu STARC. Außerdem erstellte ich ETL-Tabellen zur Vorbereitung der Datenentwicklung für Data Engineering aus STARC, indem ich REST-API-Komponenten in Talend nutzte, um die JSON-Daten zu extrahieren. Entwicklung von Jobs zur Transformation und Aufbereitung der Daten in der PostgreSQL-Datenbank. Verantwortlich für das wöchentliche Änderungsmeeting mit dem Business und dem Jira-Board. Entwicklung von Talend-Jobs und Data Engineering. Tableau-Berichte und Datenvisualisierung der Daten in der PostgreSQL-Datenbank und anderen Daimler-Datenquellen. Zusammenarbeit mit dem Team, das für das Testen der Prototypen für die Automobilsparte von Daimler zuständig ist.
DWH-Entwicklung von Datentabellen für die Migration.
Entwicklung von Talend-ETL-Jobs für Data Engineering.
REST-API mit Talend ESB zur Extraktion von Daten aus STARC.
Tableau-Entwicklung für Datenvisualisierung und Reporting.
Betrieb des Azure Cloud Repositorys für das Talend-Projekt.
Juni 2020 - Sept. 2020
4 Monaten
Vereinigte Staaten
QA/Datenmodellierungsberater
Prospect 33
Verantwortlich für QA der Anwendung und den Betrieb nach dem Go-Live.
Ben hat Testdesign und Testfälle erstellt, um alle Szenarien abzudecken und die Stabilität der Website sicherzustellen.
Außerdem war Ben im Datenmodellierungsteam tätig und hat die Ridge-Regression-Bibliotheken von Python SKLearn für ein COVID-19-Predictive-Modelling-Tool genutzt, das die Infektionsfälle und RT-Werte für bestimmte Landkreise in den USA vorhersagt, wobei er das Modell täglich weiter verbessert und Vorfälle durch Website-Updates, die das Modell beeinflussten, behoben hat.
Ben stieß zum Team, um die QA und die finale Entwicklung des Modells für die Python-Website mit den Dash-Bibliotheken für das Frontend zu unterstützen.
Ben war außerdem für das tägliche Protokollieren und Verwalten von Problemen mit GitLab zuständig.
Tägliche Dev-Team-Meetings per Zoom und Kommunikation über Slack mit einem in New York ansässigen US-Unternehmen.
Ben war außerdem für das Issue-Tracking mit GitLab und die QA der wöchentlichen Releases verantwortlich und bot dem Dev-Team Beratung und Unterstützung.
Zum Beispiel prüfte er Automatisierungsoptionen mit AWS Lambda und Katalon Studio und erstellte Pytest-Python-Unit-Test-Tools.
Testen/Entwicklung von Datenmodellen mit Python-SKLearn-Bibliotheken.
Beratung und Fehlerbehebung bei täglichen Problemen.
Verantwortlich für die QA und das Testing des Frontends.
März 2020 - Mai 2020
3 Monaten
Frankfurt, Deutschland
DevOps Talend ETL-Entwickler
Helaba Invest
Entwicklung von ETL-Jobs im Asset-Management-Data-Engineering.
Siebenwöchiger Proof of Concept zur Migration eines komplexen ETL-Systems nach Talend.
Präsentation des Talend-ETL-Tools für die Entwicklungsteams von Helaba.
Java-Scripting war erforderlich, zusammen mit einer großen Auswahl an Talend-Komponenten, einschließlich ESB mit einer JMS-Queue und Performance-Optimierung.
Rund 10 % des DMS-DWH-Systems wurden in Talend entwickelt, um die Flexibilität und den Umfang als ETL-Tool zu demonstrieren.
Das Projekt stand unter hohem Zeitdruck, da gleichzeitig zwei weitere Tools als Wettbewerber präsentiert wurden.
Entwicklung von SQL für komplexe Lookups im Oracle DWH.
Talend ESB (JMS-basierte Architektur) für Datenmapping.
Mai 2018 - Jan. 2020
1 Jahr 9 Monaten
Köln, Deutschland
DevOps Consultant/Talend ETL-Entwickler
Unitymedia
DevOps-ETL-Entwicklung mit Talend/PostgreSQL und Dateiübertragungen der Boundary-Systeme von Unitymedia unter Verwendung Java-basierter ETL-Tools.
Schnittstellen umfassten Oracle, PostgreSQL und DB2-Datenbanken.
Entwicklung im OSS/BSS-System, Analyse vorhandener Schnittstellen sowie Verbesserungen an bestehenden Jobs und Optimierung des Frameworks.
Entwicklung von Talend mit REST-Services und SOAP-Calls sowie ETL-Jobs für die Data-Lake-Schnittstelle von Vodafone.
Die Prozesse wurden mit Airflow automatisiert.
Außerdem Fehlerbehebung und Troubleshooting in der Live-Umgebung.
Die Jobs beinhalteten auch FTP-File-Transfer-Komponenten von Linux- und Windows-Freigaben sowie Datei-zu-DB-Transfers und umgekehrt.
Entwicklung von File-Transfer-Jobs für das ETL-Big-Data-Tool Talend.
Entwicklung von Talend-Jobs für Data Engineering.
Troubleshooting und Bugfixing von Produktions-Datentransfer-Jobs.
Automatisierung der ETL-Prozesse mit Airflow.
Anwendungspflege und Optimierung bestehender Anwendungen.
Erstellung und Wartung von DWH-Jobs mit Talend, Oracle/DB2/PostgreSQL.
Okt. 2016 - Apr. 2018
1 Jahr 7 Monaten
München, Deutschland
ETL/BI-Betriebs- und DWH-Berater
Consors Finanz
Ben arbeitete im Projektteam an Dokumentationsaufgaben für die Big-Data-Ladevorgänge in das DWH-System für die gesamte CFG.
Ben arbeitete auch im Operations-Team in einem agilen Prozessumfeld.
Er führte Bugfixes bei Produktionsvorfällen und Monitoring-Engines durch und behandelte Probleme im Projekt.
Dazu gehörte das Schreiben von Workarounds für Vorfälle in der Produktions-Datenbank und Third-Level-Support mit dem Talend-ETL-Tool, inklusive der Unterstützung aller Schnittstellen bei der Migration von einem Legacy-System zu SAP ECC.
Die Migrationsunterstützung fand von 10.2017 bis 04.2018 statt.
Nach der Abspaltung von Commerz Finanz von der Commerzbank und dem Wechsel zu BNP Paribas wurde das Rebranding-Projekt Gemini abgeschlossen und der Name in Consors Finanz geändert.
Ben teilte seine Aufgaben zwischen der Unterstützung der File-Transfer-Operationen und der Entwicklung neuer Änderungen am Job-Scheduler-Tool SOS mit Java-basierter Parameterkonfiguration auf.
Zu seinen Aufgaben gehörten auch die monatlichen Compliance-Datenlieferungen und das Problemmanagement.
BI-Operations für das Talend-ETL-System von Consors Finanz.
Verantwortlich für die tägliche Behebung von Produktionsvorfällen und Support-Anfragen.
Migration vom Legacy-System zu SAP ECC mit Talend.
Entwicklung und Konfiguration des File-Transfer-Tools SOS Job Scheduler.
Projektarbeit in agilem Umfeld, Problem- und Incident-Management.
Okt. 2012 - Sept. 2016
4 Jahren
München, Deutschland
DevOps im Billing-Anwendungsbetrieb
Telefonica o2
Ben kam zur Operations-Gruppe von BASF in einer außergewöhnlich geschäftigen Zeit für das Partner-Billing-Team von Telefonica o2 vor Weihnachten, mit einer großen OCS-Migration für Fonic, Lidl und alle Multibrands auf dem OSS/BSS-System.
Aufgrund seiner vorherigen Billing-Erfahrung mit o2 konnte er sehr schnell Vorfälle beheben und Workarounds sowie Änderungen implementieren.
Auf den Terminal- und Batch-Servern erledigte Ben SQL-Abfragen und Scripting, um alltägliche Probleme im System zu beheben, erstellte Remedy-Tickets für das System, analysierte Probleme und bot Operations-Support für alle Partner-Marken von o2.
Ben arbeitete im Projektteam für das Fonic Secure 8 Release und führte Deployments für Fonics Selfcare-Websystem mit Jenkins durch.
Außerdem installierte er Hotfixes und Releases in der Datenbank.
Ben arbeitete auch im Operations-Team in einem DevOps-Prozessumfeld.
Er führte Bugfixes bei Produktionsvorfällen und Monitoring-Engines durch und kümmerte sich um Probleme im Projekt.
Dazu gehörte das Erstellen von Workarounds für Vorfälle in der Produktions-Datenbank und Third-Level-Support mit PL/SQL und Skripterstellung.
Seit Mitte 2015 übernimmt Ben Teamleiter- und Mentoring-Aufgaben.
Er ist verantwortlich für die Kanban-Meetings, die Organisation von Problem-Tickets und fungiert als Ansprechpartner für Schnittstellen und andere Teams.
Außerdem bearbeitet er weiterhin komplexe technische Systemprobleme.
Billing-Operations für das gesamte Partner-Marken-System von o2.
Verantwortlich für die tägliche Behebung von Produktionsvorfällen und Support-Anfragen.
Verantwortlich für Monitoring-Engines, Bugfixes und Scripting.
Projektarbeit in agilem Umfeld, Erstellung von Berichten für Stabilitätsmeetings.
Durchführung von Web- und Content-Deployments mit Jenkins in verschiedenen Umgebungen.
Feb. 2012 - Okt. 2012
9 Monaten
Düsseldorf, Deutschland
Agile Testautomatisierung
Vodafone
Ben wurde mit sehr kurzer Vorlaufzeit in ein schnelllebiges Projekt mit Vodafones Egarage-Websystem eingesetzt. Er arbeitete mit den besten Consultants von Infosys zusammen, musste den Kern-Stack des Projekts sehr schnell erlernen und die Automatisierungssuiten in FitNesse mit Java Eclipse nahezu sofort ausführen, da das Projekt damals unter großem Druck stand. Bens UNIX- und SQL-Datenbankkenntnisse kamen gut zum Einsatz, da er die Testfälle, die mit den Servern und der Datenbank integriert waren, sehr schnell übernehmen und von Anfang an Ergebnisse liefern konnte. Ben war auch an Tests der Apache-Server und der Shop-Server beteiligt, analysierte die Logs, meldete Fehler in HP Quality Center und aktualisierte die Tests in FitNesse, um die Automationsläufe zu verbessern. Nachdem die Anfangsphase abgeschlossen war und die Automatisierungstests stabil liefen, konnte das Offshore-Team die Testausführung übernehmen.
Durchführung von Nicht-Funktionalen Tests im Vodafone Egarage-Projekt.
Ausführung von Tests der Java/Eclipse FitNesse-Automatisierungssuite.
Durchführung von Testanalysen und Aktualisierungen an FitNesse-Automatisierungstests.
Tests mit Oracle-Tools, SQL Developer, SQL und UNIX-Skripten.
Aktualisierung und Ausführung von Batch-Shell-Skripten auf Linux-Backend-Servern.
System- und Integrationstests mit den Vodafone-Shop-Websystemen durchgeführt.
Jan. 2008 - Dez. 2011
4 Jahren
Bern, Schweiz
Senior Testanalyst / Testmanager
Swisscom
Ben arbeitete im Billing-Team an einem Oracle-11g/Linux/Java-System, das Rechnungs- und CDR-Datenverkehr im XML-Format verarbeitete, in die Datenbank übertrug und dann über die Layout-Engine weiter zu PDFs und Printstreet-Ausgaben führte.
Analyse von Change-Requests und neuen Arbeitspaketen für das Projekt.
Erstellung von Use Cases und Testfällen in HP Quality Center.
Erstellung des Testplan-Dokuments und Mentoring der junioren Teammitglieder.
Beschaffung und Erstellung von Testdaten zur Abdeckung der Testszenarien.
Ausführung der Testfälle und Durchlauf der Daten im System.
Überprüfung der Datenbankzuordnung und Ausgaben für die verschiedenen Handler.
Reporting, Retests und Bearbeitung von Fehlern in HP Quality Center.
Installation und Verwaltung von Java-, Linux- und Oracle-DB-Umgebungen.
Er war zudem verantwortlich für das Ausführen der Regression-Automatisierungs-Pearl-Skripte und die Abstimmung mit dem Management, um schnelle Updates zum Systemstatus nach Änderungen zu geben. Seine Arbeit an den Automatisierungsskripten umfasste Bugfixes und Updates am Code, jedoch nicht das Erstellen neuer Skripte. In der Datenbank nutzte Ben Toad zur Datenbearbeitung und erstellte eigene SQL- und PL/SQL-Skripte.
Das Projekt arbeitete in zweiwöchigen Release-Zyklen, bei denen Entwickler und Tester sehr eng zusammenarbeiteten – ähnlich der heute weit verbreiteten Agile-Methode. Ben hatte ein gutes Arbeitsverhältnis zu einigen Geschäftsbereichen und konnte bei der Klärung von Anforderungen helfen, wenn Fehler und Änderungen nötig waren. Das Team arbeitete sehr effizient zusammen, installierte neue Änderungen schnell und testete neue Releases umgehend. Das erforderte besonders gute Kommunikation und Flexibilität bei Tests und Testscripten.
Komponententest-Analyst für das Swisscom Docforms-Rechnungslayout-System.
Verantwortlich für den vollständigen Test-Lifecycle (bis E2E) mit HP Quality Center.
Beratung in einer agilen Umgebung, enge Zusammenarbeit mit Entwicklern.
Tests mit Oracle-Tools, Toad, PL/SQL, UNIX-Skripten und Pearl.
Erstellung und Ausführung detaillierter Funktionstests im System.
Durchgeführte System- und Integrationstests mit vorgelagerten und nachgelagerten Systemen.
Mai 2006 - Okt. 2007
1 Jahr 6 Monaten
München, Deutschland
Senior Test- / DWH-Berater
o2 Germany
Einstieg ins CT-Testteam zwei Wochen vor Beginn der Tests für Release 16; Ben erhielt eine intensive Wissensübergabe zur GDF (General Data Facility) DWH-Anwendung, um die Daten im o2-Systemstack zu steuern.
Erstellung von Testplandokumentation basierend auf Anforderungen und Change Requests.
Erstellung von Komponententestfällen auf Basis der Use Cases in Rational Requisite Pro.
Aufbau der Komponententestumgebung und der erforderlichen Testscripte zur Simulation von Produktionsbedingungen.
Erstellung von Testdaten, einschließlich Eingabedateien für alle Datenfeeds an GDF.
Ausführung der Testfälle, Meldung von Fehlern und Abstimmung mit der Entwicklung bei Abweichungen zur Dokumentation.
Regressionstests von Fehlern und Dokumentation der Testergebnisse.
Schulung und Mentoring anderer Teammitglieder.
Die Tests und Testvorbereitung umfassten intensiven Einsatz von Oracle mit TOAD und SQL Plus zum Ausführen von PL/SQL-Skripten und zur Datenanalyse. Ben musste außerdem Perl- und PL/SQL-Skripte aktualisieren, um bestehende Testwerkzeuge zu erweitern und neue zu erstellen.
Ben führte zudem Datenfeed-Simulationen für binäre Dateiübertragungen mittels FTP und in verschiedenen UNIX-Umgebungen durch.
In der Testumgebung wurden mehrere Schemas angelegt, die über DB-Links mit dem Komponententest-Schema verbunden wurden, welche Ben einrichten musste, um separate Anwendungen im o2-Stack zu simulieren, die sich mit GDF verbinden. Über einen Zeitraum von sechs Monaten verbesserte sich die Qualität von GDF von einem Verhältnis von 30/70 % nach der CT-Phase in Release 15 auf beeindruckende 95/5 % in Release 18.
Datawarehouse-Test für die Oracle-Middleware-Datenbank von o2.
Beratung der Entwicklung zu Erweiterungen und Design der Anwendung.
Verantwortlich für den kompletten Test-Lifecycle (bis E2E) mit den Rational-Testwerkzeugen von o2.
Komponententests mit Oracle-Tools, PL/SQL und UNIX durchgeführt.
Erstellung von Testschemas und Scripten zur Simulation einer Live-Umgebung.
Durchführung integrierter Tests mit angebundenen o2-Middleware-Anwendungen.
März 2003 - Mai 2006
3 Jahren 3 Monaten
Salzburg, Österreich
Senior Tester / Testteamleiter
Sony NetServices
Ben war im QA-Team und testete Anwendungen auf Mobiltelefon-Geräten sowie Frontend-Webseiten, die einen Online-Musikstreamingdienst für Vodafone darstellten.
Ben war in der gesamten Testphase involviert – von der Planung und der Erstellung von Testfällen aus den Use Cases in der Anforderungsdokumentation bis hin zur finalen Freigabe für den Kunden. Ben war verantwortlich für die Erstellung von Testschritten und deren Automatisierung mit Mercury Quick TestPro (VBScript). In der Ausführungsphase analysierte er Fehler und erstellte Berichte für das QA-Team.
Die Tests erforderten intensiven Einsatz von GPRS- und Bluetooth-Verbindungen auf den Geräten sowie ein tiefes Verständnis für das Einrichten von GPRS-Zugangspunkten, um WAP-Seiten und Internetanwendungen zu verbinden. Feldtests mit den Geräten und SIM-Karten sowie Überprüfung der Backend-Systeme auf korrekte Auslesung der Mobilzellen gehörten ebenfalls dazu.
Bens Erfahrung im Billing und Testing machte ihn zu einem wertvollen und kommunikativen Teammitglied. Er war der einzige von vier Teammitgliedern, dessen Vertrag um weitere vier Wochen verlängert wurde, um das Report-Testing für Sonys Abrechnungssystem abzuschließen. Anschließend wurde er dreimal erneut (jeweils um drei Monate) verlängert, um an Release 1.2 und später am Pamina-Release zu arbeiten, an dem er bis Ende April 2005 beteiligt war.
Seit Mai 2005 ist Ben als Senior Testanalyst in der Testvorbereitung und Testdurchführung für das neue Vodafone-Produkt Radio DJ involviert: eine fortgeschrittene Version von Sonys Streaman, die 3G nutzt. Es wird auf den neuesten UMTS-Smartphones veröffentlicht. Die vier Symbian-Geräte sind: Nokia 6630, 6680, N70 und N91. Als Senior Tester war Ben verantwortlich für die Erstellung aller Testfälle für die mobile Frontend-Anwendung in Mercury TestDirector, die Analyse der Spezifikationsdokumentation und CRs sowie die Durchführung der Testplanung bis hin zum Testlabor im Testtool.
Systemtest-Spezialist für das Vodafone Radio DJ-Projekt.
Komponententests an mehreren Mobilgeräten und Backend-Systemen.
Durchführung von Feldtests und Tests des Backend-Datenbanksystems (Linux/Oracle).
Bereitstellung von Testdaten über die Oracle-Datenbank mittels Toad.
Planung, Erstellung und Ausführung aller Tests mit HP Quality Center.
Senior Tester für Sonys Hauptrelease von Radio DJ für Vodafone.
März 1998 - Jan. 2002
3 Jahren 11 Monaten
München, Deutschland
Kenan-Billing-Business-Analyst
o2 Germany
Ben arbeitete im OSS/BSS-Team als Business Analyst sowie in der Datenaufbereitung mit dem Kenan-Arbor-Datenmodell. Er arbeitete in einem Team mit häufigen Releases und engem Zeitplan. Er führte umfangreiche Tests an der neuen Arbor-OM-Schnittstelle durch und legte Testkonten an, die in die BP-Datenbank repliziert wurden. Außerdem unterstützte er andere Testteams bei Call Data Records und Arbor Process Control und führte wertvolle Schulungen für neue Teammitglieder durch. Seine Testschwerpunkte lagen hauptsächlich auf Billing-Runs für Residential und Business Voice, einschließlich Festnetz-zu-Mobil-Funktionen sowie der Einrichtung und dem Testen verschiedener Vertragsrabatte.
Er ist mit dem Rating-Modell vertraut und erstellt in der Testumgebung eigene Datenaufbauten, um mit dem Kunden im Voraus abzustimmen, welche Optionen machbar sind und welche nicht. Seine SQL-Kenntnisse aus seiner Entwickler-Vergangenheit setzte er häufig ein, und er hat ein gutes Verständnis der LDS-Beziehungen zwischen den Tabellen der bearbeiteten Bereiche.
Nach einem Jahr nahm Ben einen unbefristeten Vertrag bei VIAG Interkom an, um seine Karriere weiterzuentwickeln und Erfahrungen in einem schnell wachsenden Telekom-Umfeld zu sammeln. Er folgte diesem Schritt, um eine wertvolle Position zu sichern und eine unschätzbare Schulung zum Mobile Transferred Account Procedure (TAP) zu erhalten. Er vertrat VIAG auf mehreren internationalen Konferenzen der GSM Association in Wien, Athen und London. Außerdem traf er sich bei zahlreichen Gelegenheiten mit Kenan während des TAP-3-Projekts, in dem 60 % seiner Aufgaben aus Tests bestanden.
Analyse des bestehenden Abrechnungssystems in Bezug auf neue Produkteinführungen.
Abstimmung mit internen Abteilungen zum Produktdesign.
Vertretung von VIAG europaweit im „GSM Roaming TAP3“-Projekt.
Technischer Support für das Databuild-Team des Systems.
Abschluss der Komponenten- und Systemtestphasen bis zur UI-Ebene.
Dez. 1997 - März 1998
4 Monaten
Barcelona, Spanien
Testberater
Pricewaterhouse & Coopers
Arbeitete am Retevision Telco-Startup-Projekt. Phase 1.0: pünktliche und erfolgreiche Bereitstellung des Indirect-Access-Abonnentenservices in nur 2 Monaten. Wegen der kurzen Entwicklungs- und Testzeit arbeitete Ben lange und mit hohem Einsatz.
Bens Erfahrung mit Telfort und BMP wurde genutzt, als er gebeten wurde, beim Unit-Testing des EHPT BMP 3.0 zu helfen, um die Konten-Mediation und die Verarbeitung von Gesprächsdaten der Lucent-Switches durchzuführen.
Er musste die Testfälle für die Abrechnungsläufe in der Systemtestumgebung schreiben und war zudem dafür verantwortlich, dass die Testumgebung korrekt eingerichtet wurde und termingerecht zur Verfügung stand. Das erforderte Arbeit während vieler Tage in der Weihnachtszeit. Anschließend führte Ben die Testläufe der standortspezifischen Vantive-zu-BP-Verbindung durch, die aus zwei Skripten bestand, die die Kontendaten übertrugen. Danach war er alleinverantwortlich für das Erstellen und Dokumentieren der CDR’s mit Access und Excel. Nach Phase 1.0 arbeitete er mit dem Integrationstestteam am End-to-End-Testing.
Systemtest-Spezialist für das Redesign des Abrechnungssystems zum Service-Launch.
Bot Beratung für die EHPT- und BMP-Netzwerksysteme.
Erstellte Systemtest-Dokumentation und Qualitätssicherung.
Sprachen
Englisch
Muttersprache
Deutsch
Verhandlungssicher
Ausbildung
Sept. 1985 - Juni 1990
Ardingly College
Vereinigtes Königreich
Sie suchen Freelancer?Passende Kandidaten in Sekunden!