Nagaraju A.

Senior Data Scientist

Stevenage, Vereinigtes Königreich

Erfahrungen

Nov. 2023 - Bis heute
2 Jahren 2 Monaten
Glasgow, Vereinigtes Königreich

Senior Data Scientist

JPMC

  • Entwarf und setzte Bayessche Marketing-Mix-Modelle (MMM) mit PyMC-3+ und PySpark ein, um ROI und Kanalsegmentelastizität für Einzelhandels- und Asset-Management-Portfolios zu quantifizieren.
  • Entwickelte ETL- und Feature-Pipelines in Airflow und AWS Databricks, um die Aufnahme von Marketing-, Transaktions- und Verhaltensdaten im Terabyte-Bereich aus S3, Hive, Postgres und Kafka zu automatisieren.
  • Erstellte eine Delta Lake- + Apache Iceberg-Architektur zur Unterstützung von Adstock-, Carry-Over- und saisonalen ETL-Transformationen als Modelleingaben.
  • Implementierte hierarchische Bayessche Strukturen und regressionsbasierte MMMs mit NumPy, PyMC und TensorFlow Probability, um Mehrregionen-Effekte zu modellieren.
  • Optimierte PySpark-Jobs durch Liquid Clustering und adaptive Partitionierung, was die Laufzeit der MMM-Datenvorbereitung um ca. 40% reduzierte.
  • Automatisierte Modelltraining, Versionierung und Bereitstellung über MLflow und Databricks Asset Bundles, um Reproduzierbarkeit und Compliance zu gewährleisten.
  • Streamte nahezu Echtzeitdaten zu Werbeeinblendungen und Conversions aus Multi-Tenant-Kafka-Clustern in Modellpipelines.
  • Setzte probabilistische Inferenz-Workflows auf AWS EMR mit verteilter MCMC-Sampling ein, was die Konvergenzzeit deutlich verkürzte.
  • Erstellte Explainability-Dashboards in Plotly Dash zur Visualisierung von Posteriorverteilungen, Kanaleffekten und Unsicherheitsintervallen.
  • Wandte bayessche Regularisierungs- und Feature-Selection-Techniken an, um die Leistung der MMMs zu optimieren.
  • Integrierte MMM-Ergebnisse in Snowflake und AWS RDS zur Nutzung in BI und Marketing-Analysen.
  • Implementierte Data Quality Monitoring mit Great Expectations und integrierte Validierungen in die ETL-Workflows.
  • Kollaborierte mit quantitativen Forschungsteams, um MMM-basierte Elastizitäten in Finanzprognosemodelle einzubetten.
  • Automatisierte CI/CD-Pipelines mit Jules und ServiceNow für Modellretraining und -bereitstellung.
  • Lieferte funktionsübergreifende MMM-Erkenntnisse an Marketing-, Finanz- und Analytics-Teams zur Unterstützung der Budgetoptimierung.
  • Definierte und implementierte erweitertes eCommerce-Tracking für Online-Transaktionen, das granulare Berichte zur Produktperformance und zur Analyse der Customer Journey ermöglicht.
  • Integrierte Google Analytics mit Drittanbieter-Plattformen wie Google Ads und CRM-Systemen, um plattformübergreifende Attribution und nahtlosen Datenfluss zu ermöglichen.
  • Setzte Machine-Learning-Techniken wie Regressionsanalyse, Entscheidungsbäume und Clustering ein, um Kundenverhalten vorherzusagen und Zielgruppen für zielgerichtetes Marketing zu segmentieren.
  • Entwickelte ein Multi-Touch-Attributionsmodell, um Conversion-Credits über digitale Touchpoints genau zuzuweisen.
  • Implementierte Resilienz, Zuverlässigkeit und Verfügbarkeit verschiedener Asset- und Wealth-Management-Tools vor Ort und in der Cloud.
  • Arbeitete an der Abstimmung und Reporting-Integration von Fondspositionen, Instrumenten, Barbeständen und Geldmarktgeschäften.
  • Leitete Change Management, Release-Prozesse und Release-Management mithilfe von Jules-Pipelines und ServiceNow.
  • Entwickelte AFX-Händlerberichte, P&L-Validierung und Reporting zu verschiedenen Fonds, Assets und Instrumenten.
  • Implementierte eine Echtzeit-Daily-Load-Status-Lösung mit Geneos-Dashboards.
  • Unterstützte Asset- und Wealth-Management-Kunden in einer kundenorientierten Rolle.
Sept. 2018 - Jan. 2023
4 Jahren 5 Monaten
Stevenage, Vereinigtes Königreich

Datenwissenschaftler – MMM/ML

Glaxo Smith Kline

  • Entwarf und implementierte Bayessche MMM-Frameworks in PyMC, um den ROI von Multichannel-Marketingkampagnen im Bereich Consumer Health und Pharma zu bewerten.
  • Erstellte End-to-End-ETL-Pipelines mit Airflow, Kafka, Azure Data Factory und Databricks, die CRM-, Vertriebs- und Prozessdaten (>100 TB) integrieren.
  • Entwickelte probabilistische Regressionsmodelle mit hierarchischen Priors, um Heterogenität auf Kampagnen-, Regional- und HCP-Ebene abzubilden.
  • Entwickelte Datenmodelle mit offenem Tabellenformat und ADLS Gen2-Integration, die sich an Schemaänderungen anpassen.
  • Implementierte Bayessche Inferenz-Workflows mit MCMC-Sampling auf Azure Databricks zur Schätzung der Kanalealastizität.
  • Entwickelte individuelle Priors, um Fachwissen wie Abbauraten, Carry-over und Sättigungseffekte abzubilden.
  • Automatisierte Trainings- und Evaluierungspipelines mit Azure ML und MLflow unter versionierten Experimenten.
  • Implementierte Streaming-Analytics mit Kafka + Flink, um MMM-Datasets aus digitalen und Feldsystemen kontinuierlich zu aktualisieren.
  • Erstellte PySpark Feature Stores und Validierungsschichten, um Datenqualität und Konsistenz sicherzustellen.
  • Führte Modelldiagnosen mit WAIC, LOO-CV und posterioren prädiktiven Checks durch.
  • Erstellte Power BI- und Plotly Dashboards für Marketing-Teams zur Visualisierung von MMM-Erkenntnissen und posterioren ROI-Kurven.
  • Sicherte Data Governance, Lineage-Tracking und GDPR/GxP-Compliance in allen Azure-Datenpipelines.
  • Migrierte Legacy-MMM-Workloads von on-prem HDP zu Azure Databricks, was die Skalierbarkeit verbesserte und die Verarbeitungszeit um 60 % reduzierte.
  • Entwickelte Budget-Optimierungssimulatoren in Python unter Verwendung von Prinzipien der Bayesschen Entscheidungstheorie.
  • Arbeitete mit kommerziellen Analytics-Teams zusammen, um MMM-Erkenntnisse in Prognose- und Promotionsplanungsmodelle zu operationalisieren.
  • Arbeitete an cloudbasierten Kafka-Datenquellen und streamte Daten mit Kafka Connectors und Flink.
  • Erstellte standardisierte SQL-Engine-Cluster mit PrestoDB.
  • Erstellte virtuelle Cloud-Data-Warehouses mit Snowflake und fragte Daten mit SnowSQL, Spark-Jobs und Tez ab.
  • Dokumentierte Prozesse in Confluence, führte Code-Reviews durch und verwaltete Builds mit Groovy auf Jenkins.
März 2017 - Aug. 2018
1 Jahr 6 Monaten
Reading, Vereinigtes Königreich

Dateningenieur

Visa Europe

  • Führte Datenanalysen auf CDH5- und CDH6-Clustern mit Apache Hue durch.
  • Verwaltete Autoscaling und Wartung eines AWS EMR-Clusters.
  • Erstellte umfassende Data-Warehouse-Lösungen, um 800 TB Daten aus DB2-Speichern auf Hadoop auszulagern.
  • Richtete Streaming-Prozesse für Transaktions- und Clearingdaten mit Kinesis ein.
  • Implementierte Workflow-Pläne mit Airflow und Oozie.
  • Setzte Streaming-Ingestion mit der Kafka Confluent-Plattform mit 10 Broker-Knoten aus verschiedenen Datenquellen um.
Feb. 2016 - Jan. 2017
1 Jahr

Hadoop/Big Data Engineer

Solera Holdings

  • Arbeitete mit Hadoop, Sqoop, Hive, HBase, Spark, Akka, Lucene, Solr, Pig, Pentaho, Hue und Scala.
Jan. 2015 - Jan. 2016
1 Jahr 1 Monate
Nottingham, Vereinigtes Königreich

Big Data Hadoop-Entwickler

Silicon Integra Limited

  • Arbeitete mit Hadoop, Sqoop, R, Kite SDK, Kudu, Hive (CDH 5.4, CDH 5.6), HBase, Impala, Hue, Spark, Oozie, AWS EMR, Azure, Solr, Pig, Bewertungs- und Schätzalgorithmen, Paxata, Scala und PrestoDB.
Mai 2014 - Jan. 2015
9 Monaten
Stockton-on-Tees, Vereinigtes Königreich

Hadoop-Entwickler / Analyst und Berater

Nortech Solutions

  • Arbeitete mit Hadoop, Sqoop, Hive, HBase, Spark, Akka, Lucene, Solr, Pig, Pentaho, Hue und Scala.
Aug. 2013 - Jan. 2014
6 Monaten
Hyderabad, Indien

Big-Data-Entwickler/Ingenieur

Nextgen Solutions

  • Arbeitete mit Hadoop, Hive, Scala, JSF, MongoDB, HBase, ActiveMQ und Multithreading.
März 2012 - März 2013
1 Jahr 1 Monate

Big-Data/Hadoop-Ingenieur

Tata Telecom

  • Arbeitete mit Hadoop Analytics, Pentaho, Java, Python, J2EE und dem Hadoop-Ökosystem.

Zusammenfassung

Verfüge über insgesamt mehr als 13 Jahre Erfahrung in Planung, Aufbau, Implementierung und Integration von kommerziellen Projekten in verschiedenen Branchen wie Finanzen, Einzelhandel, Versicherung, Banking, Hightech, Social Media, Öl und Gas sowie Netzwerke/Telekommunikation. Ich habe meine Karriere als Graduate Systems Engineer bei TCS gestartet und an groß angelegten Java- und Hadoop-Projekten mitgearbeitet, die hoch skalierbar, verteilt und verfügbar sind.

Ich habe mit unterschiedlichen Cloud-Umgebungen wie AWS, Azure und Open-Source-Tools für Cloud-Bereitstellung und -Konfiguration wie OpenStack und OpenNebula gearbeitet. Dabei habe ich praktische Erfahrungen mit NoSQL-Datenbanken wie MongoDB, HBase und Cassandra gesammelt.

Ich habe mit verschiedenen agilen Methoden wie TDD, BDD, Pair Programming, Continuous Integration und Scrum gearbeitet.

Ich habe mit Programmiersprachen wie Java, Scala, Python, Golang, C, PySpark, Shell-Scripting, J2EE, JSF, dem Apache Hadoop-Ökosystem, Hortonworks, Cloudera, Accel Data ODP, ETL-Verfahren und Analyseplattformen gearbeitet.

Sprachen

Telugu
Muttersprache
Englisch
Verhandlungssicher
Hindi
Verhandlungssicher
Spanisch
Grundkenntnisse

Ausbildung

Jan. 2014 - Juli 2015

Northumbria University

Master of Science · Informatik · Newcastle upon Tyne, Vereinigtes Königreich

Mai 2006 - Juni 2010

JNTU

Bachelor of Technology · Elektrotechnik, Elektronik und Nachrichtentechnik · Indien

Sie suchen Freelancer?Passende Kandidaten in Sekunden!
FRATCH GPT testen
Weitere Aktionen