Recommended expert

Nagaraju Anthati

Senior Data Scientist

Nagaraju Anthati
Stevenage, Vereinigtes Königreich

Erfahrungen

Nov. 2023 - Bis heute
2 Jahren 3 Monate
Vereinigtes Königreich

Senior Data Scientist

JPMC

  • Konzipierte und implementierte Bayesianische Marketing-Mix-Modelle (MMM) mit PyMC-3+ und PySpark, quantifizierte ROI und kanalbezogene Elastizitäten in Einzelhandels- und Asset-Management-Portfolios.
  • Entwickelte ETL- und Feature-Pipelines in Airflow und AWS Databricks, automatisierte das Laden von Terabyte großen Marketing-, Transaktions- und Verhaltensdaten aus S3, Hive, Postgres und Kafka.
  • Erstellte eine Delta Lake + Apache Iceberg-Architektur zur Unterstützung von Adstock-, Carry-Over- und Saisonalitäts-Transformationen für Modelldaten.
  • Setzte hierarchische Bayesian-Strukturen und regressionsbasierte MMMs mit NumPy, PyMC und TensorFlow Probability um, um Multi-Region-Effekte zu modellieren.
  • Optimierte PySpark-Jobs mit Liquid Clustering und adaptiver Partitionierung und reduzierte die Datenaufbereitung für MMM um ca. 40 %.
  • Automatisierte Modelltraining, Versionierung und Deployment mit MLflow und Databricks Asset Bundles, um Reproduzierbarkeit und Compliance sicherzustellen.
  • Streamte nahezu Echtzeit-Daten zu Anzeigenexposition und Conversions aus mandantenfähigen Kafka-Clusters in Modellpipelines.
  • Setzte probabilistische Inferenz-Workflows auf AWS EMR mit verteiltem MCMC-Sampling ein und verkürzte die Konvergenzzeit deutlich.
  • Lieferte Erklärbarkeits-Dashboards für Modelle in Plotly Dash zur Visualisierung von Posterior-Verteilungen, Kanaleffekten und Unsicherheitsintervallen.
  • Wandte bayesianische Regularisierung und Merkmalsauswahl-Techniken an, um die Leistung der MMM zu optimieren.
  • Integrierte MMM-Ergebnisse in Snowflake und AWS RDS für BI- und Marketing-Analytics-Anwendungen.
  • Implementierte Data-Quality-Monitoring mit Great Expectations und integrierte Validierungen in ETL-Workflows.
  • Arbeitete mit quantitativen Forschungsteams zusammen, um MMM-bedingte Elastizitäten in Finanzprognosemodelle einzubetten.
  • Automatisierte CI/CD-Pipelines mit Jules und ServiceNow für Modellretraining und Deployment.
  • Lieferte funktionsübergreifende MMM-Erkenntnisse an Marketing-, Finanz- und Analytics-Teams zur Unterstützung der Budgetoptimierung.
  • Definierte und implementierte erweitertes eCommerce-Tracking für Online-Transaktionen, das granulare Berichte über Produktperformance und Kundenreisanalysen ermöglichte.
  • Integrierte Google Analytics mit Drittanbietersystemen wie Google Ads und CRM-Systemen und ermöglichte so plattformübergreifende Attribution und nahtlosen Datenfluss.
  • Setzte Machine-Learning-Techniken wie Regressionsanalyse, Entscheidungsbäume und Clustering ein, um Kundenverhalten vorherzusagen und Zielgruppen für gezieltes Marketing zu segmentieren.
  • Entwickelte ein Multi-Touch-Attributionsmodell, um Conversion-Credits präzise auf digitale Touchpoints zu verteilen und das Verständnis der Customer Journey zu verbessern.
  • Arbeitete an der Implementierung von Resilienz, Zuverlässigkeit und Verfügbarkeit verschiedener Asset- und Wealth-Management-Tools sowohl On-Premises als auch in der Cloud.
  • Arbeitete an der Abstimmung und Berichtsintegration von Fondsbeständen, Instrumenten, Bargeld und Geldmarkttransaktionen.
  • Arbeitete am Change Management sowie am Release-Prozess und Release-Management mit Jules-Pipelines und ServiceNow.
  • Arbeitete an AFX-Händlerberichten sowie P&L-Validierung und Berichterstattung für verschiedene Fonds, Assets und Instrumente.
  • Arbeitete an der Implementierung einer Lösung zur Echtzeitüberwachung des täglichen Ladezustands mit Geneos-Dashboards.
  • Arbeitete in einer kundenorientierten Rolle und unterstützte verschiedene MMM/ML-Aktivitäten im Asset- und Wealth-Management.
Sept. 2018 - Jan. 2023
4 Jahren 5 Monate
Stevenage, Vereinigtes Königreich

Data Scientist - MMM/ML activities

Glaxo Smith Kline

  • Konzipierte und implementierte bayesianische MMM-Frameworks in PyMC, um den ROI multikanaliger Marketingkampagnen im Bereich Consumer Health und Pharma zu bewerten.
  • Erstellte End-to-End-ETL-Pipelines mit Airflow, Kafka, Azure Data Factory und Databricks und integrierte CRM-, Vertriebs- und Prozessdaten (>100 TB).
  • Entwickelte probabilistische Regressionsmodelle mit hierarchischen Priors, um Heterogenität auf Kampagnen-, Regionen- und HCP-Ebene zu erfassen.
  • Erstellte schema-evolvierende Datenmodelle mit offenen Tabellenformaten und ADLS Gen2-Integration.
  • Implementierte Bayesianische Inferenz-Workflows mit MCMC-Sampling auf Azure Databricks zur Schätzung von Kanalealastizitäten.
  • Entwickelte benutzerdefinierte Priors, um Domänenwissen wie Zerfallsraten, Carry-Over- und Sättigungseffekte abzubilden.
  • Automatisierte Trainings- und Evaluierungspipelines mit Azure ML und MLflow und versionenkontrollierten Experimenten.
  • Implementierte Streaming-Analysen mit Kafka + Flink, um MMM-Datensätze aus digitalen Systemen und Feldsystemen kontinuierlich zu aktualisieren.
  • Erstellte PySpark-Feature Stores und Validierungsschichten, um Datenqualität und Konsistenz sicherzustellen.
  • Führte Modelldiagnosen mit WAIC, LOO-CV und Posterior Predictive Checks durch.
  • Erstellte Power BI- und Plotly-Dashboards für Marketingteams, um MMM-Erkenntnisse und Posterior-ROI-Kurven zu visualisieren.
  • Sicherte Data Governance, Lineage-Tracking und DSGVO/GxP-Compliance in allen Azure-Datenpipelines.
  • Migrierte Legacy-MMM-Workloads von On-Prem-HDP zu Azure Databricks, verbesserte Skalierbarkeit und reduzierte die Verarbeitungszeit um 60 %.
  • Erstellte Budgetoptimierungs-Simulatoren in Python unter Verwendung von Prinzipien der Bayesschen Entscheidungstheorie.
  • Arbeitete mit kommerziellen Analytics-Teams zusammen, um MMM-Erkenntnisse in Forecasting- und Promotionsplanungsmodelle zu operationalisieren.
  • Arbeitete an Cloud-basierten Kafka-Datenquellen und streamte diese mit Kafka-Connectors und Flink.
  • Arbeitete an der Erstellung standardisierter SQL-Engine-Cluster mit Presto DB.
  • Arbeitete an der Erstellung virtueller Cloud Data Warehouses mit Snowflake und Abfragen der Daten mit SnowSQL, Spark Jobs und Tez.
  • Arbeitete an der Dokumentation in Confluence, am Code-Review und Build-Management mit Groovy auf Jenkins.
März 2017 - Aug. 2018
1 Jahr 6 Monate
Reading, Vereinigtes Königreich

Data Engineer

Visa Europe

  • Arbeitete an Datenanalysen auf CDH5- und CDH6-Clustern mit Apache Hue.
  • Arbeitete am Autoscaling und der Wartung eines AWS-EMR-Clusters.
  • Arbeitete an massiven Data-Warehouse-Lösungen, um 800 TB Daten von DB2-Speicher nach Hadoop auszulagern.
  • Arbeitete am Einrichten von Streaming-Prozessen für Transaktions- und Clearing-Daten mit Kinesis.
  • Implementierte Workflow-Zeitpläne mit Airflow und Oozie.
  • Arbeitete an der Implementierung von Streaming-Ingestions mit der Kafka Confluent-Plattform (10 Broker-Nodes) aus verschiedenen Datenquellen.
Feb. 2016 - Jan. 2017
1 Jahr
Madrid, Spanien

Hadoop/Big Data Engineer

Solera Holdings

  • Technologien: Hadoop, Sqoop, Hive, HBase, Spark, AKKA, Lucene, Solr, Pig, Pentaho, Hue, Scala.
Jan. 2015 - Jan. 2016
1 Jahr 1 Monat
Nottingham, Vereinigtes Königreich

Big Data Hadoop Developer

Silicon Integra Limited

  • Technologien: Hadoop, Sqoop, R, Kite, SDK, Kudu, Hive (CDH5.4, CDH5.6), HBase, Impala, Hue, Spark, Oozie, AWS EMR, Azure, Solr, Pig, Bewertungs- und Schätzalgorithmen, Paxata, Scala, Presto DB.
Mai 2014 - Jan. 2015
9 Monate
Stockton-on-Tees, Vereinigtes Königreich

Hadoop-Entwickler / Analysten-Berater

Nortech Solutions

  • Technologien: Hadoop, Sqoop, Hive, HBase, Spark, AKKA, Lucene, Solr, Pig, Pentaho, Hue, Scala.
Aug. 2013 - Jan. 2014
6 Monate
Hyderabad, Indien

Big-Data-Entwickler/Ingenieur

Nextgen Solutions

  • Technologien: Hadoop, Hive, Scala, JSF, MongoDB, HBase, ActiveMQ, Multithreading.
März 2012 - März 2013
1 Jahr 1 Monat
Indien

Big-Data/Hadoop-Ingenieur

Tata Telecom

  • Technologien: Hadoop-Analyse, Pentaho, Java, Python, J2EE, Hadoop-Ökosystem.

Zusammenfassung

Ich verfüge über insgesamt mehr als 13 Jahre Erfahrung in der Planung, dem Aufbau, der Implementierung und der Integration von groß angelegten kommerziellen Projekten in verschiedenen Branchen wie Finanzwesen, Einzelhandel, Versicherungen, Banken, Hightech, soziale Medien, Öl und Gas sowie Netzwerktechnik/Telekommunikation.

Ich habe mit verschiedenen Cloud-Umgebungen wie AWS, Azure und Open-Source-Tools zur Cloud-Bereitstellung und -Konfiguration wie OpenStack und OpenNebula gearbeitet. Ich habe praktische Erfahrung mit NoSQL-Datenbanken wie MongoDB, HBase und Cassandra gesammelt. Ich habe in verschiedenen agilen Methoden wie TDD, BDD, Pair Programming, Continuous Integration und Scrum gearbeitet. Ich habe mit Programmiersprachen wie Java, Scala, Python, Golang, C, PySpark, Shell-Scripting, J2EE, JSF, im Apache Hadoop-Ökosystem, Hortonworks, Cloudera, Accel Data ODP, ETL-Methoden und Analytics-Plattformen gearbeitet.

Fähigkeiten

  • Pymc

  • Pymc-marketing

  • Bayessche Modellierung

  • Regression

  • Klassifikation/clustering

  • Zeitreihenprognose

  • Google Analytics

  • Genai

  • Lang Chain/lang Graph

  • Milvus

  • Neilson Marketing Cloud

  • Python

  • Sql

  • Java

  • Git

  • Docker

  • Mongodb

  • R

  • Presto Db

  • Linux/unix

  • Github

  • Spring Boot

  • Künstliche Intelligenz

  • Etl

  • Cloud-dienste

  • Bash

  • Ansible

  • Graphql

  • Nosql

  • Eks

  • Jupyter Hub

  • Scala

  • Kubernetes

  • Apache Hadoop

  • Conflient/kafka

  • Oracle Database

  • Azure Adf, Azure Datalake

  • Databricks

  • Azure Synapse

  • Dataiku

  • Sagemaker

  • Azure Dsvm

  • Slurm/lsf

  • Datenanalyse

  • Statistische Modellierung

  • Modelleinsatz

  • Cloud-daten-engineering

  • Erweiterte Analysen

  • Maschinelles Lernen

  • Generative Ki

  • Lösungsentwicklung

  • Streaming-datenpipelines

  • Staging-tabellen

  • Latenzarme Lösungen

  • Multitasking-fähigkeiten

  • Entscheidungsfindung

  • Selbstmotiviert

Sprachen

Englisch
Verhandlungssicher
Spanisch
Grundkenntnisse

Ausbildung

Jan. 2014 - Juli 2015

Northumbria University

Master of Science in Informatik · Informatik · Newcastle upon Tyne, Vereinigtes Königreich

Mai 2006 - Juni 2010

JNTU

Bachelor of Technology in Elektrotechnik, Elektronik und Kommunikationstechnik · Elektrotechnik, Elektronik und Kommunikationstechnik · Indien

Profil

Erstellt
Stand
Sie suchen Freelancer?Passende Kandidaten in Sekunden!
FRATCH GPT testen
Weitere Aktionen

Frequently asked questions

Sie haben Fragen? Hier finden Sie weitere Informationen.

Wo ist Nagaraju ansässig?

Nagaraju ist in Stevenage, Vereinigtes Königreich ansässig und kann in On-Site-, Hybrid- und Remote-Arbeitsmodellen arbeiten.

Welche Sprachen spricht Nagaraju?

Nagaraju spricht folgende Sprachen: Englisch (Verhandlungssicher), Spanisch (Grundkenntnisse).

Wie viele Jahre Erfahrung hat Nagaraju?

Nagaraju hat mindestens 12 Jahre Erfahrung. In dieser Zeit hat Nagaraju in mindestens 8 verschiedenen Rollen und für 8 verschiedene Firmen gearbeitet. Die durchschnittliche Dauer der einzelnen Projekte beträgt 1 Jahr und 6 Monate. Beachten Sie, dass Nagaraju möglicherweise nicht alle Erfahrungen geteilt hat und tatsächlich mehr Erfahrung hat.

Für welche Rollen wäre Nagaraju am besten geeignet?

Basierend auf der jüngsten Erfahrung wäre Nagaraju gut geeignet für Rollen wie: Senior Data Scientist, Data Scientist - MMM/ML activities, Data Engineer.

Was ist das neueste Projekt von Nagaraju?

Die neueste Position von Nagaraju ist Senior Data Scientist bei JPMC.

Für welche Unternehmen hat Nagaraju in den letzten Jahren gearbeitet?

In den letzten Jahren hat Nagaraju für JPMC und Glaxo Smith Kline gearbeitet.

In welchen Industrien hat Nagaraju die meiste Erfahrung?

Nagaraju hat die meiste Erfahrung in Industrien wie Gesundheitswesen, Pharmazeutika und Bank- und Finanzwesen. Nagaraju hat auch etwas Erfahrung in Einzelhandel, Informationstechnologie (IT) und Telekommunikation.

In welchen Bereichen hat Nagaraju die meiste Erfahrung?

Nagaraju hat die meiste Erfahrung in Bereichen wie Business Intelligence, Informationstechnologie (IT) und Marketing.

In welchen Industrien hat Nagaraju kürzlich gearbeitet?

Nagaraju hat kürzlich in Industrien wie Gesundheitswesen, Pharmazeutika und Bank- und Finanzwesen gearbeitet.

In welchen Bereichen hat Nagaraju kürzlich gearbeitet?

Nagaraju hat kürzlich in Bereichen wie Business Intelligence, Marketing und Informationstechnologie (IT) gearbeitet.

Was ist die Ausbildung von Nagaraju?

Nagaraju hat einen Master in Informatik from Northumbria University und einen Bachelor in Elektrotechnik, Elektronik und Kommunikationstechnik from JNTU.

Wie ist die Verfügbarkeit von Nagaraju?

Nagaraju ist sofort in Teilzeit verfügbar für passende Projekte.

Wie hoch ist der Stundensatz von Nagaraju?

Der Stundensatz von Nagaraju hängt von den spezifischen Projektanforderungen ab. Bitte verwenden Sie die Meet-Schaltfläche im Profil, um ein Meeting zu planen und die Details zu besprechen.

Wie kann man Nagaraju beauftragen?

Um Nagaraju zu beauftragen, klicken Sie auf die Meet-Schaltfläche im Profil, um ein Meeting anzufragen und Ihre Projektanforderungen zu besprechen.

Durchschnittlicher Tagessatz für ähnliche Positionen

Die Tagessätze basieren auf aktuellen Projekten und enthalten keine FRATCH-Marge.

1200
900
600
300
⌀ Markt: 900-1060 €
Die angegebenen Tagessätze entsprechen der typischen Marktspanne für Freiberufler in dieser Position, basierend auf aktuellen Projekten auf unserer Plattform.
Die tatsächlichen Tagessätze können je nach Dienstalter, Erfahrung, Fachkenntnissen, Projektkomplexität und Auftragsdauer variieren.