Ritika S.

Services Solution-Architekt

Frankfurt am Main, Deutschland

Erfahrungen

Juni 2025 - Dez. 9999
7974 Jahren 7 Monaten
Lorem ipsum dolor sit amet

Hitachi Energy

  • Analysierte die Standardaufbewahrungsrichtlinie von Eloqua und erkannte das Risiko von Datenverlusten bei Datensätzen, die älter als zwei Jahre sind.
  • Entwarf und implementierte eine Strategie zur historischen Datensicherung, indem transformierte Tabellen im Data Warehouse erstellt wurden, um ältere Daten zu archivieren und gleichzeitig die Datenqualität sicherzustellen.
  • Arbeitete mit dem Power BI-Team zusammen, um Dashboards von den Rohimporten aus Eloqua auf die neu erstellten Datentabellen umzuleiten.
  • Nutzte Jira, um Data-Engineering-Aufgaben, Fehler und Funktionsanfragen über Agile-Sprints hinweg zu verfolgen und zu verwalten.
  • Koordinierte die Priorisierung des Backlogs und die Zuweisung von Aufgaben in Jira, um die Entwicklung der Datenpipeline an den Geschäftsanforderungen auszurichten.
  • Arbeitete eng mit den Fachbereichen zusammen, um Reporting-Anforderungen für das Reverse Data Warehouse zu bewerten und zu verstehen.
  • Entwarf und implementierte Incremental Refresh in Power BI, um tägliche Dashboard-Aktualisierungen ohne vollständige Datenneuladung zu ermöglichen.
  • Kooperierte mit dem Group Data Office und dem Technology Office, um Datenmodellierungs- und Engineering-Standards abzustimmen.
  • Ermöglichte die Kommunikation mit Stakeholdern und präsentierte Status-Updates in wöchentlichen Meetings in Deutschland, Polen und Indien.
  • Erstellte eine End-to-End-Dokumentation mit technischem Design, Datenflussdiagrammen und Power BI-Audit für die spätere Nutzung.
  • Nahm an UAT-Sitzungen mit Geschäftsanwendern teil, um Daten und Berichte zu validieren.
Juli 2021 - Jan. 2022
7 Monaten

Services Solution-Architekt

UbiqueSystem (Kunde: TCS)

  • Übersetzte Geschäftsanforderungen in skalierbare Azure-Architekturen und stellte dabei kosteneffiziente und leistungsstarke Lösungen sicher.
  • Entwarf Azure-basierte Cloud-Lösungen und integrierte dabei Partnersysteme und Drittanbieter-Anwendungen.
  • Bewertete, migrierte und modernisierte Legacy-Anwendungen in Azure und ermittelte optimale öffentliche oder hybride Bereitstellungsmodelle.
  • Empfahl Kostenoptimierungsstrategien durch Analyse von Azure-Verbrauchsmustern und Ressourcenskalierung.
  • Erstellte Bewertungen zu Bereitstellungsarten, Azure-Diensten, Betriebssystemen, COTS, Codebasis, Datenbank, Abhängigkeiten und Notfallwiederherstellung.
  • Entwarf und implementierte die Azure-Infrastruktur mit VNets, Azure SQL-Datenbanken, Synapse Analytics, Auto-Scaling-Konfigurationen und Compute-Ressourcen.
  • Pflegte Kenntnisse zu Azure-Neuerungen, IT-Trends und Geschäftsanforderungen, um effiziente Lösungen zu identifizieren.
Jan. 2019 - März 2020
1 Jahr 3 Monaten
Lorem ipsum dolor sit amet

IA Pvt. Ltd

Projekt #1: AWS Athena ersetzt PostgreSQL

  • Leitete das Entwicklungsteam bei der Konzeption cloudbasierter AWS-Lösungen.
  • Entwickelte Lösungen gemäß den AWS-Kompetenzen und verwaltete Cloud-Services.
  • Implementierte eine Customer-Data-Plattform zur Unterstützung komplexer Datenerfassung, -verarbeitung und -analyse im großen Umfang.
  • Wendete die Agile-Methodik an, um technische Abläufe zu überwachen.
  • Erstellte Webseiten zur Datenanalyse mit umfassenden technischen Informationen.
  • Erstellte User Stories und führte Anforderungsanalysen durch.
  • Bewertete interne Systeme und entwickelte Schulungsmaßnahmen zur Behebung bestehender Probleme.

Projekt #2: Automatisierte Policenerneuerung

  • Erstellte und pflegte vollständig automatisierte CI/CD-Pipelines für Code-Deployments mit Octopus Deploy und PowerShell.
  • Verwaltete und überwachte AWS-Infrastruktur (EC2, S3, RDS), einschließlich Backups, Patches und Skalierung.
  • Erzielte eine monatliche Kostenreduktion von 3.000 $ durch Abschaffung unnötiger Server und Konsolidierung von Datenbanken.
  • Erstellte Kubernetes-Cluster und setzte Docker-Container ein, um monolithische Anwendungen in Microservices zu zerlegen.
  • Reduzierte die Bereitstellungszeit für kritische Infrastruktur von einem Monat auf wenige Tage.
  • Verwaltete GitHub-Repositories, Branching und Tagging.
Apr. 2017 - Dez. 2018
1 Jahr 9 Monaten
Lorem ipsum dolor sit amet

SArT.ODSatSaYNArTcEhLitPeVcTt.(ALTWDS.)

Projekt #1: Aegon Asset Management (Datenbankmigration auf AWS)

  • Beriet Kunden, um deren Anforderungen zu verstehen und optimal passende Lösungen vorzuschlagen.
  • Erstellte Systemanalysen und -designs basierend auf Kundenvorgaben.
  • Erstellte Oracle-RDS- und Redshift-Instanzen und konfigurierte DMS-Replikationsaufgaben.
  • Erstellte technische Spezifikationen, Geschäftsanforderungen und Prozessabläufe.
  • Implementierte Workflow-Services in AWS und die Integration mit Snowflake.
  • Erstellte Visualisierungsdashboards mit Power BI und nahm an Tests teil.
  • Bereitete Runbooks und ARB-Dokumente für die Kundenfreigabe vor.

Projekt #2: Wiederkehrender Datensatz (Big Data und AWS)

  • Leitete als Big Data Engineer ein Team, das an Datensätzen mit umfassenden Kennzahlen arbeitete.
  • Programmierte in Scala, erstellte JAR-Dateien mit SBT und reichte Spark-Jobs ein.
  • Übertrug Daten von AWS S3 in einen HDFS-Cluster mit Informatica.
  • Entwickelte Hive-UDFs und bewältigte Herausforderungen bei Sicherheitsberechtigungen.
  • Verwendete SparkSQL, um Daten aus mehreren Tabellen abzurufen und in Lookup-Tabellen zu laden.
  • Implementierte inkrementelles Laden täglicher Datensätze mit Duplikatsprüfungen.
Okt. 2015 - Dez. 2016
1 Jahr 3 Monaten
Lorem ipsum dolor sit amet

BSAigADMatAaTEEnCgHinNeOerLOGY Inc.

  • Arbeitete mit zwei Datensätzen unter Einsatz von HiveQL und Pig Latin.
  • Verwendete Apache NiFi, um Datenflüsse in Echtzeit zu verschieben und zu automatisieren.
  • Schrieb Python-MapReduce-Code zur Behebung von Sicherheitsproblemen.
  • Synchronisierte unstrukturierte und strukturierte Daten mit Pig und Hive.
  • Importierte Daten von RDBMS nach HDFS mit Sqoop, erstellte externe Tabellen und führte Subabfragen durch.
  • Implementierte dynamische Partitionierung und Bucketing in HiveQL.
  • Plante Workflows mit Oozie und verwaltete Neuplanung von Jobs sowie Fehlerbehandlung.
  • Verwaltete Daten über die Hive-Weboberfläche der Cloudera-Hadoop-Distribution UI.
  • Stellte Big-Data-Hadoop-Anwendung auf Talend Cloud AWS und Microsoft Azure bereit.
  • Trug zur Gestaltung und Entwicklung von Erweiterungsfunktionen bei.
Dez. 2012 - Sept. 2015
2 Jahren 10 Monaten
Lorem ipsum dolor sit amet

PCOroGgNraIZmAmNeTrTAEnCaHlyNsOtLOGY Solution

  • Hive-Abfragen für Initial- und inkrementelle Ladevorgänge entwickelt.
  • Anwendungen über Oozie-Workflows ausgeführt.
  • Mit Kunden bei der Anforderungserfassung und Aufgabenpräsentationen koordiniert.
  • Aufgaben zugewiesen und an der Teamentwicklung mitgewirkt.
  • Native MapReduce-Programme in Java geschrieben und mit JUnit getestet.
  • Termingerechte Auslieferung von Produktionsreleases sichergestellt.
Sept. 2009 - Nov. 2012
3 Jahren 3 Monaten
Lorem ipsum dolor sit amet

SNoEfStwT TaEreCHEnNgEiTnePeVrT Ltd

  • Mit internen und externen Kunden zusammengearbeitet, um Nutzeranforderungen zu erfassen.
  • Projektanforderungen analysiert und den Code kontinuierlich implementiert.
  • Änderungen in Datenbanktabellen auf prozeduraler, modularer und Datenbankebene vorgenommen.
Jan. 2004 - Dez. 2008
5 Jahren
Lorem ipsum dolor sit amet

REDajUivCAGTaInOdNhiAPNroDuTdRyAoIgNikINi VGisBhawchaevliodryaolfaEynagineering

Zusammenfassung

AWS- und Azure-Datenarchitekt mit 12 Jahren Erfahrung in der Planung und Umsetzung cloudbasierter Datenlösungen.

Experte für Azure Synapse Analytics, Azure Data Factory (ADF), Azure Data Lake Storage (ADLS) und Databricks. Erfahren in Datenbankmigration, ETL-/ELT-Optimierung und End-to-End-Datenarchitektur. Fundierte Kenntnisse in Python, SQL und Power BI mit nachweislichem Erfolg bei der Automatisierung von Datenpipelines, der Kostensenkung sowie der Verbesserung von Datenzugänglichkeit, Genauigkeit und Sicherheit.

Versiert in der Zusammenarbeit mit funktionsübergreifenden Teams und der Einhaltung bewährter Branchenstandards für Data Governance und Sicherheit.

Sprachen

Hindi
Muttersprache
Deutsch
Verhandlungssicher
Englisch
Verhandlungssicher

Ausbildung

Okt. 2004 - Juni 2008

Rajiv Gandhi Proudyogiki Vishwavidyalaya

Bachelor of Engineering · Ingenieurwesen · Bhopal, Indien

Zertifikate & Bescheinigungen

AWSCertified Solutions Architect - Associate

Sie suchen Freelancer?Passende Kandidaten in Sekunden!
FRATCH GPT testen
Weitere Aktionen