Serge (Dr.) Kalinin
MLOps (Machine-Learning-Betrieb)
Erfahrungen
MLOps (Machine-Learning-Betrieb)
REWE Digital GmbH
- Es ist wie ein Startup innerhalb von REWE, in dem wir ein neues Forecasting-System auf der Google Cloud Platform von Grund auf neu aufbauen müssen. Obwohl meine Rolle offiziell MLOps heißt, beinhalten meine tatsächlichen Aufgaben auch die Entwicklung von Datenverarbeitungspipelines (Data Engineering) und Aufgaben von Data Scientists wie Feature Engineering und Modelltrainings.
- GCP: Terraform (tofu), Vertex AI (Kubeflow), Cloud Run, IAM, Google Cloud Storage, BigQuery, Artifact Registry
- Data Engineering: Snowflake als zentrales Data Warehouse, Terraform, DBT für Datenmodellimplementierungen
- CI/CD: GitLab. Wir haben eine CI/CD-Pipeline aufgebaut, die Deployments neuer Releases bis in die Produktionsumgebung automatisiert
Senior Softwareentwickler (Freelancer)
StarStruck
- Konsolidierung der Sichtbarkeit von Unternehmen oder Softwareprodukten auf Marktplätzen, um deren Auftritte zu vergleichen.
- Datenmodelle entwickeln und Fehler in Scraping-Skripten beheben.
- Entwicklungsaufgaben an andere Entwickler verteilen.
- Textanalyse und Implementierung eines Empfehlungssystems.
- AWS: DynamoDB, Lambda, S3, EC2, IAM, EventBridge.
- Scraping: Python, Selenium Chrome Webdriver.
- Textanalyse: Amazon Comprehend.
- Empfehlungssystem: XGBoost.
- MLOps: MLFlow
Senior Softwareentwickler (extern)
Atrvivia AG (via STI GmbH, Michael Page International)
- Entwicklung einer Data Integration Hub-Plattform (DIH) für ein Data-Governance-Projekt, zentrale Architektur zum Datenaustausch zwischen Mandanten, basierend auf Datenproduktbeschreibungen, Datenkatalogen und Services, die Data Mesh und Data Vault 2.0 repräsentieren.
- Workflow: Einspeisung der Datenproduktbeschreibung über REST-API oder Swagger UI; Metadaten in Kafka-Themen geschrieben; Kafka-Consumer erstellen Metadaten in Datahub, Tabellen in Trino, Dateistrukturen in S3, Policies usw.
- Implementierung von Single Sign-On in Services auf Basis von JWT-Tokens.
- Entwicklung von REST-APIs und Integrations-Tools zwischen SelfService, Trino, S3, Datahub, Great Expectations.
- Durchführung der Daten-Synchronisation zwischen S3 und Azure Blob Storage.
- Entwicklung von ETL mit PySpark auf Azure Databricks und Pipelines mit pandas, PySpark und Airflow-DAGs.
- Aufbau von Data-Quality-Validierungsdiensten und Monitoring-Systemen.
- Erstellung eines Abrechnungssystems basierend auf CPU-, Speicher- und Arbeitsspeicherauslastung mit Star-Schema.
- Entwicklung komplexer Datenmodelle (bis zu 5000 Spalten aus mehreren Hundert Datenquellen).
- Fehlerbehebung und Support für Services und Kunden; Lieferung gemäß AGILE/SCRUM.
- CI/CD: OpenShift (Kubernetes), Helm, Docker, Git, Tekton, ArgoCD, Terraform.
- Datenkataloge und Lineage: Datahub, OpenLineage; Python.
- SQL-Engines: Trino mit Starburst-Web-UI, PostgreSQL, Hive, DB2, Delta Lake.
- Data Quality: Great Expectations, Talend.
- Code Quality: SonarQube.
- REST-API: Java, Swagger UI, Spring Boot.
- Authentifizierung: JWT, OAuth2, Single Sign-On; Apache Ranger; Prometheus und Grafana
Senior Softwareentwickler (extern)
Otto GmbH & Co KG (via Soorce GmbH)
- Entwurf und Implementierung datengetriebener Microservices für Suchmaschinenoptimierung mit AWS-Services; ETL-Muster: Datenaufnahme aus REST-API, SQS, DynamoDB; Transformation; Upload zu S3 oder in eine Datenbank.
- Service I (MLOps): Bewertung der OTTO-Seiten durch Extraktion von Keywords und Abgleich mit Google-Suchen; Migration von Datentransformation, Modelltraining/-retraining und Deployment von GCP zu AWS; Workflow-Design.
- Einsatz von GitHub Actions für CI/CD und Terraform für das Management von Cloud-Ressourcen.
- Implementierung von Modellvalidierungen und Tests mit Python; Modell-Monitoring mit Grafana.
- Service S: Verarbeitung von Millionen REST-API-Anfragen pro Stunde mit AsyncIO; Parsing von verschachteltem JSON; Speicherung der Ergebnisse auf S3.
- Sprachen: Python, Java, TypeScript, Kotlin.
- Monitoring: CloudWatch, Grafana, Tableau.
- Datenbanken: MongoDB, DynamoDB, PostgreSQL, Exasol.
- Nachrichtenverarbeitung: SNS, SQS.
- Provisioning: Terraform, Pulumi, Serverless (Cloud Foundation).
- Container: Docker, ECR, ECS.
- Unit-Tests: PyTest; Lieferung gemäß AGILE/SCRUM.
Senior Big Data Consultant (extern)
REWE Systems GmbH (via STI GmbH)
- Konzeption und Implementierung hybrider Umgebungen auf der Google Cloud Platform.
- Entwicklung und Optimierung normalisierter Datenmodelle und Spark-ETL-Workflows mit dbt.
- Erstellung von Data-Warehouse-Modellen auf Hadoop mit Data Vault 2.0.
- Bereitstellung von MapR- und Spark-(Databricks)-Umgebungen auf GCP mit Terraform; Einrichtung der Echtzeit-Datenreplikation von On-Premise nach GCP.
- Integration mit REWE-Services (Active Directory, DNS, Instana).
- Entwicklung einer REST-API für ML-Modelle mit Flask.
- Implementierung persistenter Speicherung auf Basis von MapR für einen Kubernetes-Cluster.
- Betrieb von MapR-Clustern: Upgrades, Erweiterungen, Fehlerbehebung mit Ansible und Jenkins.
- Synchronisation des Kafka-Clusters mit MapR-Streams mittels Kafka Connect.
- Gestaltung von ETL-Pipelines, Synchronisation und Integration von MapR mit DB2 und Teradata.
- Onboarding neuer interner Kunden; Beratung des Managements zu Big-Data-Themen; Vorschlag von Sicherheitslösungen und PoCs.
- Entwicklung von Marktklassifizierungsmodellen; Visualisierung der Daten mit Jupyter und Grafana; Integration mit JIRA; Lieferung gemäß AGILE/SCRUM
Senior Big Data Architekt
Allianz Technology SE
- Verwaltung einer großskaligen, mandantenfähigen, sicheren und hochverfügbaren Hadoop-Infrastruktur; Bereitstellung von Architekturberatung, Kapazitätsplanung und Roadmaps für Implementierungen.
- Durchführung des Pre-Sales-Onboardings; Zusammenarbeit mit Infrastruktur-, Netzwerk-, Datenbank-, BI- und Data-Science-Teams.
- Entwurf, Implementierung und Wartung einer unternehmensweiten Sicherheit für Hadoop (Kerberos, LDAP/AD, Sentry, Datenverschlüsselung während der Übertragung und im Ruhezustand).
- Installation und Konfiguration mandantenfähiger Hadoop-Umgebungen; Verwaltung von Updates, Patches und Upgrades; Erstellung von Runbooks für Fehlersuche und Wartung.
- Bereitstellung von DevOps-Support auf Level 3; Bewertung neuer Tools und Technologien.
- Aufbau einer Microsoft R Open Data-Science-Modell-Trainingsplattform auf Azure und On-Premises mit Docker und Terraform zur Betrugserkennung.
- Entwicklung eines Supply-Chain-Analytics-GraphServers für HDFS-Graphabfragen.
- Umstellung interner Prozesse auf Agile/SCRUM.
- Entwicklung Kafka-basierter Anwendungsfälle: ClickStream (Java, Kafka, Flink, Cassandra), Dokumentklassifizierung (Java, Kafka, Spark Streaming, UIMA, Impala), Graph-Datenbank-PoC (Java, Python, Kafka, Cassandra, Gremlin, KeyLines)
Systemarchitekt
WebThe unbelievable Machine Operations Company GmbH
Systembetrieb
Werkenntwen GmbH
Postdoc
Bergische Universität Wuppertal
Postdoc
Rheinisch-Westfälische Technische Hochschule Aachen
Industrie Erfahrung
Sehen Sie, wo dieser Freiberufler den Großteil seiner beruflichen Laufbahn verbracht hat. Längere Linien stehen für umfangreichere praktische Erfahrung, während kürzere Linien auf gezielte oder projektbezogene Arbeit hindeuten.
Erfahren in Informationstechnologie (11.5 Jahre), Bildung (6 Jahre), Einzelhandel (5.5 Jahre), Medien und Unterhaltung (2 Jahre) und Versicherung (1.5 Jahre).
Geschäftsbereich Erfahrung
Die folgende Grafik bietet einen Überblick über die Erfahrungen des Freiberuflers in verschiedenen Geschäftsbereichen, berechnet anhand abgeschlossener und aktiver Aufträge. Sie zeigt die Bereiche, in denen der Freiberufler am häufigsten zur Planung, Umsetzung und Erzielung von Geschäftsergebnissen beigetragen hat.
Erfahren in Informationstechnologie (13 Jahre), Business Intelligence (8.5 Jahre), Forschung und Entwicklung (6 Jahre), Produktentwicklung (5 Jahre) und Betrieb (3.5 Jahre).
Fähigkeiten
- It: Objektorientierte Programmierung, Datenbanken, Administration, Verteiltes Rechnen, Hochleistungsrechnen, Hochverfügbarkeit
- Fundierte Kenntnisse In Public Clouds: Aws, Microsoft Azure, Google Cloud Platform
- Infrastructure As Code: Terraform, Ansible, Puppet
- Experte Für Hadoop-stacks: Hortonworks, Mapr, Cloudera, Spark, Kafka, Flume, Storm, Oozie, Sentry, Ranger, Knox, Hbase, Sqoop, Yarn, Mesos, Impala, Hive, Zookeeper, Key Trustee
- Experte Für Netzwerkgeräte: Load Balancer (F5, A10), Switches (Arista, Juniper, Force10), Firewalls (Juniper, Fortigate, Palo Alto), Router (Brocade)
- Programmiersprachen: Python, Java, Sql, Scala, C++, Php, Vba, R, Ruby
- Experte Für Sicherheitssysteme Auf Anwendungsebene: Web Application Firewall, Xml-gateway, Haproxy
- Experte Für Datenbanken: Mysql, Postgresql, Objectivity, Oracle, Microsoft Sql Server
- Experte Für Linux. Sehr Gute Kenntnisse In Microsoft Windows
- Experte Für Massenspeichersysteme: Emc Isilon, Scality, Lustre/sfs, Pnfs, Hadoop, Dcache, Netapp
- Experte Für Virtualisierung Und Containerisierung: Kvm, Xen, Vmware, Virtualbox, Vagrant, Docker, Cloudfoundry, Kubernetes, Citrix
- Scms: Git, Svn, Nexus, Cvs
- Experte Für Monitoring: Grafana, Prometheus, Nagios, Cacti, Ganglia, Munin, Lemon
- Experte Für Statistik: Monte-carlo, Statistische Tests, Parameterschätzung, Fehlerabschätzung, Klassifikation, Vorhersage, Unfolding, Fitting
- Experte Für Technische Analysen
- Experte Für Multivariate Methoden: Neuronale Netze, Support Vector Machines, Genetische Algorithmen, Gradient Boosting
- Gute Kenntnisse Von Sicherheitsstandards Wie Pci Dss
- Ldap-authentifizierungssysteme: Active Directory, Openldap, Apacheds
Sprachen
Ausbildung
Université catholique de Louvain-la-Neuve
Doktorand · Ottignies-Louvain-la-Neuve, Belgien
Moscow Institute of Physics and Technology
M.Sc., Hochenergiephysik · Hochenergiephysik · Dolgoprudny, Russische Föderation
Moscow Institute of Physics and Technology
B.Sc., Hochenergiephysik · Hochenergiephysik · Dolgoprudny, Russische Föderation
Zertifikate & Bescheinigungen
AWS Certified Data Engineer - Associate
Profil
Frequently asked questions
Sie haben Fragen? Hier finden Sie weitere Informationen.
Wo ist Serge ansässig?
Welche Sprachen spricht Serge?
Wie viele Jahre Erfahrung hat Serge?
Für welche Rollen wäre Serge am besten geeignet?
Was ist das neueste Projekt von Serge?
Für welche Unternehmen hat Serge in den letzten Jahren gearbeitet?
In welchen Industrien hat Serge die meiste Erfahrung?
In welchen Bereichen hat Serge die meiste Erfahrung?
In welchen Industrien hat Serge kürzlich gearbeitet?
In welchen Bereichen hat Serge kürzlich gearbeitet?
Was ist die Ausbildung von Serge?
Ist Serge zertifiziert?
Wie ist die Verfügbarkeit von Serge?
Wie hoch ist der Stundensatz von Serge?
Wie kann man Serge beauftragen?
Durchschnittlicher Tagessatz für ähnliche Positionen
Die Tagessätze basieren auf aktuellen Projekten und enthalten keine FRATCH-Marge.
Ähnliche Freelancer
Entdecken Sie andere Experten mit ähnlichen Qualifikationen und Erfahrungen
Experten, die kürzlich an ähnlichen Projekten gearbeitet haben
Freelancer mit praktischer Erfahrung in vergleichbaren Projekten als MLOps (Machine-Learning-Betrieb)
Freelancer in der Nähe
Fachkräfte, die in oder in der Nähe von München, Deutschland arbeiten