Nagaraju A.

Senior Datenwissenschaftler

Glasgow, Vereinigtes Königreich

Erfahrungen

Nov. 2023 - Bis heute
2 Jahren 1 Monate
Glasgow, Vereinigtes Königreich

Senior Datenwissenschaftler

JPMC

  • Bayesianische Marketing-Mix-Modelle (MMM) mit PyMC-3+ und PySpark entworfen und bereitgestellt, um ROI und Elastizitäten auf Kanalebene für Einzelhandels- und Asset-Management-Portfolios zu quantifizieren
  • ETL- und Feature-Pipelines in Airflow und AWS Databricks entwickelt und automatisiert, um Marketing-, Transaktions- und Verhaltensdaten im Terabyte-Bereich aus S3, Hive, Postgres und Kafka einzulesen
  • Delta Lake- und Apache Iceberg-Architektur aufgebaut, die Adstock-, Carry-over- und saisonale ETL-Transformationen für Modelldaten unterstützt
  • Hierarchische bayesianische Strukturen und regressionbasierte MMMs mit NumPy, PyMC und TensorFlow Probability implementiert, um Multi-Region-Effekte zu modellieren
  • PySpark-Jobs mit Liquid Clustering und adaptiver Partitionierung optimiert und so die Datenvorbereitung für MMMs um ca. 40% beschleunigt
  • Modelltraining, Versionierung und Deployment mit MLflow und Databricks Asset Bundles automatisiert und so Reproduzierbarkeit und Compliance sichergestellt
  • Nahezu in Echtzeit Ad-Exposure- und Konversionsdaten aus Multi-Tenant-Kafka-Clustern in Modellpipelines gestreamt
  • Probabilistische Inferenz-Workflows auf AWS EMR mit verteiltem MCMC-Sampling bereitgestellt und die Konvergenzzeit deutlich reduziert
  • Erklärbarkeits-Dashboards in Plotly Dash erstellt, die Posterior-Verteilungen, Kanaleffekte und Unsicherheitsintervalle visualisieren
  • Bayesianische Regularisierung und Feature-Selection-Techniken angewandt, um die MMM-Leistung zu optimieren
  • MMM-Ergebnisse in Snowflake und AWS RDS für BI- und Marketing-Analytics-Zwecke integriert
  • Datenqualitätsüberwachung mit Great Expectations implementiert und Validierung über ETL-Workflows integriert
  • Mit Quant-Research-Teams zusammengearbeitet, um MMM-basierte Elastizitäten in Finanzprognosemodelle einzubetten
  • CI/CD-Pipelines mit Jules und ServiceNow für Modell-Retraining und Deployment automatisiert
  • Funktionenübergreifende MMM-Erkenntnisse an Marketing-, Finanz- und Analytics-Teams geliefert, um Budgetoptimierung zu unterstützen
  • Fortgeschrittenes eCommerce-Tracking für Online-Transaktionen definiert und implementiert, um detaillierte Berichte zur Produktleistung und Kundenreiseanalyse zu ermöglichen
  • Google Analytics in Google Ads und CRM-Systeme integriert, um plattformübergreifende Attribution und nahtlosen Datenfluss zu ermöglichen
  • Regressionsanalyse, Entscheidungsbäume und Clustering verwendet, um Kundenverhalten vorherzusagen und Zielgruppen für gezieltes Marketing zu segmentieren
  • Ein Multi-Touch-Attributionsmodell entwickelt, um Konversionsguthaben über digitale Touchpoints präzise zuzuordnen und das Verständnis der Customer Journey zu verbessern
Sept. 2018 - Jan. 2023
4 Jahren 5 Monaten
Stevenage, Vereinigtes Königreich

Data Scientist – MMM/ML-Aktivitäten

Glaxo Smith Kline

  • Bayesianische MMM-Frameworks in PyMC entworfen und implementiert, um ROI bei Multichannel-Marketingkampagnen im Bereich Konsumgesundheit und Pharma zu bewerten
  • End-to-End-ETL-Pipelines mit Airflow, Kafka, Azure Data Factory und Databricks Spark aufgebaut und CRM-, Vertriebs-, Termin- und Prozessdaten (>100 TB) integriert
  • Probabilistische Regressionsmodelle mit hierarchischen Priors entwickelt, um Heterogenität auf Kampagnen-, Regionen- und HCP-Ebene abzubilden
  • Schema-evolving Datamodelle mithilfe von Open Table Formats und ADLS Gen2-Integration erstellt
  • Bayesianische Inferenz-Workflows mit MCMC-Sampling auf Azure Databricks implementiert, um Kanalerlasticitäten zu schätzen
  • Eigene Priors entwickelt, um Domänenwissen wie Abklingraten, Carry-over- und Sättigungseffekte abzubilden
  • Trainings- und Evaluierungspipelines mit Azure ML und MLflow automatisiert und Experimente mit Versionierung verwaltet
  • Streaming-Analytics mit Kafka und Flink implementiert, um MMM-Datensätze aus digitalen und Feldsystemen kontinuierlich zu aktualisieren
  • PySpark Feature Stores und Validierungsschichten erstellt, um Datenqualität und Konsistenz zu gewährleisten
  • Modelldiagnosen mit WAIC, LOO-CV und Posterior Predictive Checks durchgeführt
  • Power BI- und Plotly Dash-Dashboards für Marketingteams erstellt, um MMM-Erkenntnisse und Posterior-ROI-Kurven zu visualisieren
  • Daten-Governance, Lineage-Tracking und GDPR-/GxP-Compliance über alle Azure-Datenpipelines sichergestellt
  • Legacy-MMM-Workloads von On-Prem HDP zu Azure Databricks migriert, Skalierbarkeit verbessert und Verarbeitungszeit um 60% reduziert
  • Budgetoptimierungssimulatoren in Python basierend auf den Prinzipien der Bayesian Decision Theory entwickelt
  • Mit Commercial Analytics-Teams zusammengearbeitet, um MMM-Erkenntnisse in Forecasting- und Promotionsplanungsmodelle zu operationalisieren
  • Mit cloud-gehosteten Kafka-Datenquellen gearbeitet, die über Kafka Connectors und Flink gestreamt wurden
  • Standardisierte SQL-Engine-Cluster mit Presto DB erstellt
  • Virtuelle Cloud Data Warehouses mit Snowflake erstellt und Daten mit SnowSQL, Spark-Jobs und Tez abgefragt
  • Dokumentation in Confluence gepflegt und Builds mit Groovy auf Jenkins verwaltet
März 2017 - Aug. 2018
1 Jahr 6 Monaten
Reading, Vereinigtes Königreich

Dateningenieur

Visa Europe

  • Datenanalysen auf CDH5- und CDH6-Clustern mit Apache Hue durchgeführt
  • Autoscaling und Wartung von AWS EMR-Clustern verwaltet
  • Massive Data-Warehouse-Lösungen entworfen, um 800 TB Daten von DB2-Speicher nach Hadoop auszulagern
  • Streaming-Prozesse für Transaktions- und Abrechnungsdaten mit Kinesis eingerichtet
  • Workflow-Schedules mit Airflow und Oozie implementiert
  • Streaming-Ingestions mit der Kafka Confluent-Plattform (10 Broker-Knoten) aus verschiedenen Datenquellen implementiert
Feb. 2016 - Jan. 2017
1 Jahr
Madrid, Spanien

Hadoop-/Big-Data-Ingenieur

Solera Holdings

  • Arbeitete mit Hadoop, Sqoop, Hive, HBase, Spark, AKKA, Lucene, Solr, Pig, Pentaho, Hue und Scala
Jan. 2015 - Jan. 2016
1 Jahr 1 Monate
Nottingham, Vereinigtes Königreich

Big-Data-Hadoop-Entwickler

Silicon Integra Limited

  • Arbeitete mit Hadoop, Sqoop, R, Kite SDK, Kudu, Hive (CDH5.4, CDH5.6), HBase, Impala, Hue, Spark, Oozie, AWS EMR, Azure, Solr, Pig, Bewertungs- und Schätzalgorithmen, Paxata, Scala und Presto DB
Mai 2014 - Jan. 2015
9 Monaten
Stockton-on-Tees, Vereinigtes Königreich

Hadoop-Entwickler / Analyseberater

Nortech Solutions

  • Arbeitete mit Hadoop, Sqoop, Hive, HBase, Spark, AKKA, Lucene, Solr, Pig, Pentaho, Hue und Scala
Aug. 2013 - Jan. 2014
6 Monaten
Hyderabad, Indien

Big-Data-Entwickler/Ingenieur

Nextgen Solutions

  • Arbeitete mit Hadoop, Hive, Scala, JSF, MongoDB, HBase, ActiveMQ und Multithreading
März 2012 - März 2013
1 Jahr 1 Monate

Big-Data/Hadoop-Ingenieur

Tata Telecom

  • Arbeitete mit Hadoop Analytics, Pentaho, Java, Python, J2EE und dem Hadoop-Ökosystem

Zusammenfassung

Ich habe insgesamt über 13 Jahre Erfahrung in der Planung, dem Aufbau, der Implementierung und der Integration umfangreicher kommerzieller Projekte in verschiedenen Branchen wie Finanzen, Einzelhandel, Versicherungen, Banken, Hightech, sozialen Medien, Öl und Gas sowie Netzwerk/Telekommunikation. Nachdem ich meine Karriere als Graduate Systems Engineer bei TCS begonnen habe, war ich an groß angelegten Java- und Hadoop-Projekten beteiligt, die äußerst skalierbar, verteilt und hochverfügbar sind.

Ich habe mit verschiedenen Cloud-Umgebungen wie AWS, Azure und Open-Source-Cloud-Bereitstellungs- und Konfigurationstools wie OpenStack und OpenNebula gearbeitet. Dabei habe ich praktische Erfahrungen mit NoSQL-Datenbanken wie MongoDB, HBase und Cassandra gesammelt. Ich habe an verschiedenen agilen Methoden wie TDD, BDD, Pair Programming, Continuous Integration und Scrum mitgewirkt.

Ich habe mit Programmiersprachen wie Java, Scala, Python, Golang, C, PySpark, Shell-Scripting, J2EE, JSF sowie mit dem Apache Hadoop-Ökosystem, Hortonworks, Cloudera, Accel Data ODP, ETL-Methoden und Analytics-Plattformen gearbeitet.

Sprachen

Englisch
Verhandlungssicher
Spanisch
Grundkenntnisse

Ausbildung

Jan. 2014 - Juli 2015

Northumbria University

Master of Science · Informatik · Newcastle upon Tyne, Vereinigtes Königreich

Mai 2006 - Juni 2010

JNTU

Bachelor of Technology · Elektrotechnik, Elektronik und Nachrichtentechnik · Indien

Sie suchen Freelancer?Passende Kandidaten in Sekunden!
FRATCH GPT testen
Weitere Aktionen