Nagaraju Anthati
Senior Data Scientist
Erfahrungen
Senior Data Scientist
JPMC
- Konzipierte und implementierte Bayesianische Marketing-Mix-Modelle (MMM) mit PyMC-3+ und PySpark, quantifizierte ROI und kanalbezogene Elastizitäten in Einzelhandels- und Asset-Management-Portfolios.
- Entwickelte ETL- und Feature-Pipelines in Airflow und AWS Databricks, automatisierte das Laden von Terabyte großen Marketing-, Transaktions- und Verhaltensdaten aus S3, Hive, Postgres und Kafka.
- Erstellte eine Delta Lake + Apache Iceberg-Architektur zur Unterstützung von Adstock-, Carry-Over- und Saisonalitäts-Transformationen für Modelldaten.
- Setzte hierarchische Bayesian-Strukturen und regressionsbasierte MMMs mit NumPy, PyMC und TensorFlow Probability um, um Multi-Region-Effekte zu modellieren.
- Optimierte PySpark-Jobs mit Liquid Clustering und adaptiver Partitionierung und reduzierte die Datenaufbereitung für MMM um ca. 40 %.
- Automatisierte Modelltraining, Versionierung und Deployment mit MLflow und Databricks Asset Bundles, um Reproduzierbarkeit und Compliance sicherzustellen.
- Streamte nahezu Echtzeit-Daten zu Anzeigenexposition und Conversions aus mandantenfähigen Kafka-Clusters in Modellpipelines.
- Setzte probabilistische Inferenz-Workflows auf AWS EMR mit verteiltem MCMC-Sampling ein und verkürzte die Konvergenzzeit deutlich.
- Lieferte Erklärbarkeits-Dashboards für Modelle in Plotly Dash zur Visualisierung von Posterior-Verteilungen, Kanaleffekten und Unsicherheitsintervallen.
- Wandte bayesianische Regularisierung und Merkmalsauswahl-Techniken an, um die Leistung der MMM zu optimieren.
- Integrierte MMM-Ergebnisse in Snowflake und AWS RDS für BI- und Marketing-Analytics-Anwendungen.
- Implementierte Data-Quality-Monitoring mit Great Expectations und integrierte Validierungen in ETL-Workflows.
- Arbeitete mit quantitativen Forschungsteams zusammen, um MMM-bedingte Elastizitäten in Finanzprognosemodelle einzubetten.
- Automatisierte CI/CD-Pipelines mit Jules und ServiceNow für Modellretraining und Deployment.
- Lieferte funktionsübergreifende MMM-Erkenntnisse an Marketing-, Finanz- und Analytics-Teams zur Unterstützung der Budgetoptimierung.
- Definierte und implementierte erweitertes eCommerce-Tracking für Online-Transaktionen, das granulare Berichte über Produktperformance und Kundenreisanalysen ermöglichte.
- Integrierte Google Analytics mit Drittanbietersystemen wie Google Ads und CRM-Systemen und ermöglichte so plattformübergreifende Attribution und nahtlosen Datenfluss.
- Setzte Machine-Learning-Techniken wie Regressionsanalyse, Entscheidungsbäume und Clustering ein, um Kundenverhalten vorherzusagen und Zielgruppen für gezieltes Marketing zu segmentieren.
- Entwickelte ein Multi-Touch-Attributionsmodell, um Conversion-Credits präzise auf digitale Touchpoints zu verteilen und das Verständnis der Customer Journey zu verbessern.
- Arbeitete an der Implementierung von Resilienz, Zuverlässigkeit und Verfügbarkeit verschiedener Asset- und Wealth-Management-Tools sowohl On-Premises als auch in der Cloud.
- Arbeitete an der Abstimmung und Berichtsintegration von Fondsbeständen, Instrumenten, Bargeld und Geldmarkttransaktionen.
- Arbeitete am Change Management sowie am Release-Prozess und Release-Management mit Jules-Pipelines und ServiceNow.
- Arbeitete an AFX-Händlerberichten sowie P&L-Validierung und Berichterstattung für verschiedene Fonds, Assets und Instrumente.
- Arbeitete an der Implementierung einer Lösung zur Echtzeitüberwachung des täglichen Ladezustands mit Geneos-Dashboards.
- Arbeitete in einer kundenorientierten Rolle und unterstützte verschiedene MMM/ML-Aktivitäten im Asset- und Wealth-Management.
Data Scientist - MMM/ML activities
Glaxo Smith Kline
- Konzipierte und implementierte bayesianische MMM-Frameworks in PyMC, um den ROI multikanaliger Marketingkampagnen im Bereich Consumer Health und Pharma zu bewerten.
- Erstellte End-to-End-ETL-Pipelines mit Airflow, Kafka, Azure Data Factory und Databricks und integrierte CRM-, Vertriebs- und Prozessdaten (>100 TB).
- Entwickelte probabilistische Regressionsmodelle mit hierarchischen Priors, um Heterogenität auf Kampagnen-, Regionen- und HCP-Ebene zu erfassen.
- Erstellte schema-evolvierende Datenmodelle mit offenen Tabellenformaten und ADLS Gen2-Integration.
- Implementierte Bayesianische Inferenz-Workflows mit MCMC-Sampling auf Azure Databricks zur Schätzung von Kanalealastizitäten.
- Entwickelte benutzerdefinierte Priors, um Domänenwissen wie Zerfallsraten, Carry-Over- und Sättigungseffekte abzubilden.
- Automatisierte Trainings- und Evaluierungspipelines mit Azure ML und MLflow und versionenkontrollierten Experimenten.
- Implementierte Streaming-Analysen mit Kafka + Flink, um MMM-Datensätze aus digitalen Systemen und Feldsystemen kontinuierlich zu aktualisieren.
- Erstellte PySpark-Feature Stores und Validierungsschichten, um Datenqualität und Konsistenz sicherzustellen.
- Führte Modelldiagnosen mit WAIC, LOO-CV und Posterior Predictive Checks durch.
- Erstellte Power BI- und Plotly-Dashboards für Marketingteams, um MMM-Erkenntnisse und Posterior-ROI-Kurven zu visualisieren.
- Sicherte Data Governance, Lineage-Tracking und DSGVO/GxP-Compliance in allen Azure-Datenpipelines.
- Migrierte Legacy-MMM-Workloads von On-Prem-HDP zu Azure Databricks, verbesserte Skalierbarkeit und reduzierte die Verarbeitungszeit um 60 %.
- Erstellte Budgetoptimierungs-Simulatoren in Python unter Verwendung von Prinzipien der Bayesschen Entscheidungstheorie.
- Arbeitete mit kommerziellen Analytics-Teams zusammen, um MMM-Erkenntnisse in Forecasting- und Promotionsplanungsmodelle zu operationalisieren.
- Arbeitete an Cloud-basierten Kafka-Datenquellen und streamte diese mit Kafka-Connectors und Flink.
- Arbeitete an der Erstellung standardisierter SQL-Engine-Cluster mit Presto DB.
- Arbeitete an der Erstellung virtueller Cloud Data Warehouses mit Snowflake und Abfragen der Daten mit SnowSQL, Spark Jobs und Tez.
- Arbeitete an der Dokumentation in Confluence, am Code-Review und Build-Management mit Groovy auf Jenkins.
Data Engineer
Visa Europe
- Arbeitete an Datenanalysen auf CDH5- und CDH6-Clustern mit Apache Hue.
- Arbeitete am Autoscaling und der Wartung eines AWS-EMR-Clusters.
- Arbeitete an massiven Data-Warehouse-Lösungen, um 800 TB Daten von DB2-Speicher nach Hadoop auszulagern.
- Arbeitete am Einrichten von Streaming-Prozessen für Transaktions- und Clearing-Daten mit Kinesis.
- Implementierte Workflow-Zeitpläne mit Airflow und Oozie.
- Arbeitete an der Implementierung von Streaming-Ingestions mit der Kafka Confluent-Plattform (10 Broker-Nodes) aus verschiedenen Datenquellen.
Hadoop/Big Data Engineer
Solera Holdings
- Technologien: Hadoop, Sqoop, Hive, HBase, Spark, AKKA, Lucene, Solr, Pig, Pentaho, Hue, Scala.
Big Data Hadoop Developer
Silicon Integra Limited
- Technologien: Hadoop, Sqoop, R, Kite, SDK, Kudu, Hive (CDH5.4, CDH5.6), HBase, Impala, Hue, Spark, Oozie, AWS EMR, Azure, Solr, Pig, Bewertungs- und Schätzalgorithmen, Paxata, Scala, Presto DB.
Hadoop-Entwickler / Analysten-Berater
Nortech Solutions
- Technologien: Hadoop, Sqoop, Hive, HBase, Spark, AKKA, Lucene, Solr, Pig, Pentaho, Hue, Scala.
Big-Data-Entwickler/Ingenieur
Nextgen Solutions
- Technologien: Hadoop, Hive, Scala, JSF, MongoDB, HBase, ActiveMQ, Multithreading.
Big-Data/Hadoop-Ingenieur
Tata Telecom
- Technologien: Hadoop-Analyse, Pentaho, Java, Python, J2EE, Hadoop-Ökosystem.
Zusammenfassung
Ich verfüge über insgesamt mehr als 13 Jahre Erfahrung in der Planung, dem Aufbau, der Implementierung und der Integration von groß angelegten kommerziellen Projekten in verschiedenen Branchen wie Finanzwesen, Einzelhandel, Versicherungen, Banken, Hightech, soziale Medien, Öl und Gas sowie Netzwerktechnik/Telekommunikation.
Ich habe mit verschiedenen Cloud-Umgebungen wie AWS, Azure und Open-Source-Tools zur Cloud-Bereitstellung und -Konfiguration wie OpenStack und OpenNebula gearbeitet. Ich habe praktische Erfahrung mit NoSQL-Datenbanken wie MongoDB, HBase und Cassandra gesammelt. Ich habe in verschiedenen agilen Methoden wie TDD, BDD, Pair Programming, Continuous Integration und Scrum gearbeitet. Ich habe mit Programmiersprachen wie Java, Scala, Python, Golang, C, PySpark, Shell-Scripting, J2EE, JSF, im Apache Hadoop-Ökosystem, Hortonworks, Cloudera, Accel Data ODP, ETL-Methoden und Analytics-Plattformen gearbeitet.
Fähigkeiten
Pymc
Pymc-marketing
Bayessche Modellierung
Regression
Klassifikation/clustering
Zeitreihenprognose
Google Analytics
Genai
Lang Chain/lang Graph
Milvus
Neilson Marketing Cloud
Python
Sql
Java
Git
Docker
Mongodb
R
Presto Db
Linux/unix
Github
Spring Boot
Künstliche Intelligenz
Etl
Cloud-dienste
Bash
Ansible
Graphql
Nosql
Eks
Jupyter Hub
Scala
Kubernetes
Apache Hadoop
Conflient/kafka
Oracle Database
Azure Adf, Azure Datalake
Databricks
Azure Synapse
Dataiku
Sagemaker
Azure Dsvm
Slurm/lsf
Datenanalyse
Statistische Modellierung
Modelleinsatz
Cloud-daten-engineering
Erweiterte Analysen
Maschinelles Lernen
Generative Ki
Lösungsentwicklung
Streaming-datenpipelines
Staging-tabellen
Latenzarme Lösungen
Multitasking-fähigkeiten
Entscheidungsfindung
Selbstmotiviert
Sprachen
Ausbildung
Northumbria University
Master of Science in Informatik · Informatik · Newcastle upon Tyne, Vereinigtes Königreich
JNTU
Bachelor of Technology in Elektrotechnik, Elektronik und Kommunikationstechnik · Elektrotechnik, Elektronik und Kommunikationstechnik · Indien
Profil
Frequently asked questions
Sie haben Fragen? Hier finden Sie weitere Informationen.
Wo ist Nagaraju ansässig?
Welche Sprachen spricht Nagaraju?
Wie viele Jahre Erfahrung hat Nagaraju?
Für welche Rollen wäre Nagaraju am besten geeignet?
Was ist das neueste Projekt von Nagaraju?
Für welche Unternehmen hat Nagaraju in den letzten Jahren gearbeitet?
In welchen Industrien hat Nagaraju die meiste Erfahrung?
In welchen Bereichen hat Nagaraju die meiste Erfahrung?
In welchen Industrien hat Nagaraju kürzlich gearbeitet?
In welchen Bereichen hat Nagaraju kürzlich gearbeitet?
Was ist die Ausbildung von Nagaraju?
Wie ist die Verfügbarkeit von Nagaraju?
Wie hoch ist der Stundensatz von Nagaraju?
Wie kann man Nagaraju beauftragen?
Durchschnittlicher Tagessatz für ähnliche Positionen
Die Tagessätze basieren auf aktuellen Projekten und enthalten keine FRATCH-Marge.
Ähnliche Freelancer
Entdecken Sie andere Experten mit ähnlichen Qualifikationen und Erfahrungen
Experten, die kürzlich an ähnlichen Projekten gearbeitet haben
Freelancer mit praktischer Erfahrung in vergleichbaren Projekten als Senior Data Scientist
Freelancer in der Nähe
Fachkräfte, die in oder in der Nähe von Stevenage, Vereinigtes Königreich arbeiten