Karl Estermann

Hiring Requirement

Zürich, Switzerland

Experience

Feb 2023 - Present
2 years 5 months
Zug, Switzerland

Hiring Requirement

AALS Software AG

Bei der Einrichtung eines Einstellungsverfahrens in großem Maßstab ist es wichtig, sich darauf zu konzentrieren, erfahrene Ingenieure und Talente einzustellen, die das Gesamt-Know-how des Unternehmens verbessern oder fehlende Fähigkeiten ausgleichen können. Das wettbewerbsintensive Einstellungsumfeld macht es schwierig, qualifizierte Kandidaten zu finden, da es möglicherweise nur eine begrenzte Anzahl von Personen gibt, die die Kriterien erfüllen, da viele Unternehmen um denselben Talentpool konkurrieren. Es ist von entscheidender Bedeutung, die Einstellungspipeline wie eine Vertriebspipeline zu behandeln und ihre "Temperatur" kontinuierlich zu messen, um die Effizienz und den Erfolg der Einstellungsbemühungen sicherzustellen. Ohne ständige Überwachung kann es zu Zeitverschwendung und Ineffizienzen innerhalb des Rekrutierungsteams kommen. Der Erfolg bei der Einstellung von Mitarbeitern in großem Umfang hängt von der Fähigkeit des Teams ab, Schlüsselpositionen zeitnah zu besetzen und Engpässe im Einstellungsprozess zu identifizieren und zu beseitigen, um die Abläufe zu optimieren. Das Experimentieren mit verschiedenen Stellenbeschreibungen für dieselbe Funktion über verschiedene Kanäle kann dabei helfen, herauszufinden, welcher Ansatz mehr hochwertige Kandidaten in die Pipeline bringt. Dies erfordert jedoch einen zusätzlichen Aufwand für das Einstellungsteam, das möglicherweise bereits überlastet ist. Die Festlegung von Höchstfristen für die Kandidaten, die jede Phase des Einstellungsprozesses durchlaufen müssen, sowie die Verfolgung der Einstellungen pro Woche können dazu beitragen, ein gleichmäßiges Tempo beizubehalten und eine klarere Prognose für den künftigen Einstellungsbedarf zu erstellen. Um einen Geschäftsplan zu unterstützen und effektiv Einstellungen in großem Umfang vorzunehmen, ist es unerlässlich, ein gut definiertes System für die berufliche Entwicklung zu haben, um die Kandidaten während des Einstellungsprozesses zu bewerten. Dies ermöglicht eine objektivere Bewertung potenzieller Neueinstellungen und trägt dazu bei, dass die richtigen Personen an Bord geholt werden, um die Anforderungen des Unternehmens zu erfüllen. Durch eine ausgewogene Verteilung der Einstellungsbemühungen und die Beibehaltung einer gleichmäßigen Anzahl von Einstellungen pro Woche kann das Team den Einstellungsprozess besser steuern und den künftigen Einstellungsbedarf planen. Letztlich können Unternehmen durch die kontinuierliche Messung und Verbesserung der Geschwindigkeit und Effizienz der Einstellungspipeline ihre Erfolgschancen beim Aufbau eines starken und talentierten Teams erhöhen.

Die Hauptaufgabe des Projekts "Aufbau einer datengesteuerten Einstellungsmaschine" besteht darin, einen datengesteuerten Einstellungsprozess zu etablieren, um erfahrene Ingenieure und Talente zu rekrutieren, das Gesamt-Know-how des Unternehmens zu verbessern und fehlende Fähigkeiten auszugleichen, um die Effizienz und den Erfolg der Einstellungsbemühungen zu gewährleisten.

  • Einführung eines datengesteuerten Einstellungsverfahrens für erfahrene Ingenieure und Talente.
  • Verbessern Sie die Gesamtkompetenz des Unternehmens und gleichen Sie fehlende Fähigkeiten aus.
  • Kontinuierliche Messung der "Temperatur" der Einstellungspipeline.
  • Identifizierung und Beseitigung von Engpässen im Einstellungsprozess zur Optimierung der Arbeitsabläufe.
  • Experimentieren Sie mit verschiedenen Stellenbeschreibungen für dieselbe Funktion auf verschiedenen Kanälen.
  • Setzen Sie Fristen für Kandidaten, die jede Phase des Einstellungsprozesses durchlaufen.
  • Verfolgen Sie die Einstellungen pro Woche, um ein gleichmäßiges Tempo und eine klare Prognose für den künftigen Einstellungsbedarf aufrechtzuerhalten.
  • Implementieren Sie ein gut definiertes System für die Karriereentwicklung, um die Kandidaten während des Einstellungsprozesses zu bewerten.
  • Sicherstellung einer ausgewogenen Verteilung der Einstellungsbemühungen und Aufrechterhaltung einer konstanten Anzahl von Einstellungen pro Woche.
  • Kontinuierliche Messung und Verbesserung der Geschwindigkeit und Effizienz der Einstellungspipeline.

Es besteht der Bedarf an einem Gründungsingenieur mit Erfahrung in Ethereum und intelligenten Verträgen für ein Startup-Unternehmen erörtert. Das Unternehmen sucht jemanden mit soliden Informatikgrundlagen und Problemlösungsfähigkeiten sowie Kenntnissen in Ethereum, intelligenten Verträgen, Solidity, Golang und anderen Programmiersprachen. Wenn jedoch ein Junior-Recruiter die Stelle ausschreibt, ist es für ihn eine Herausforderung, die spezifischen Anforderungen zu ermitteln und geeignete Kandidaten zu finden. Dies erfordert oft das Eingreifen eines Personalleiters oder eines erfahrenen Entwicklers, der die Stellenausschreibung vor verarbeitet und die notwendigen Details bereitstellt, damit der Junior-Recruiter die Lebenslaufdatenbank des Unternehmens effektiv durchsuchen kann. Um dieses Problem zu lösen, plant das Unternehmen die Einführung einer KI-basierten Einstellungsplattform, die eine semantische Suche nutzt. Die semantische Suche zielt darauf ab, die Suchgenauigkeit zu verbessern, indem sie die Absicht des Suchenden und die kontextuelle Bedeutung von Begriffen innerhalb des durchsuchbaren Datenraums versteht. In diesem Fall besteht das Ziel darin, die Absicht oder Bedeutung der Stellenausschreibung zu erfassen und sie mit relevanten Lebensläufen aus der Lebenslaufdatenbank des Unternehmens abzugleichen. Vor dem Abgleich der Stellenausschreibung mit den Lebensläufen muss das Unternehmen zunächst die kontextuelle Bedeutung aller Lebensläufe erfassen und sie in einem geeigneten Speicherformat für spätere Abfragen speichern. Um die kontextuelle Bedeutung der Lebensläufe zu extrahieren, plant das Unternehmen den Einsatz der HuggingFace Transformers-Bibliothek, die für ihre Fähigkeiten in der natürlichen Sprachverarbeitung (NLP) bekannt ist. Die Bibliothek wird verwendet, um Einbettungsvektoren zu generieren, bei denen es sich um mehrdimensionale Float-Vektoren handelt, die die kontextuelle Bedeutung von Sätzen, Wörtern oder Absätzen darstellen. Diese Vektoren können Hunderte bis Tausende von Dimensionen umfassen und werden verwendet, um den Abgleich zwischen der Stellenanzeige und den Lebensläufen in der Datenbank zu erleichtern.

Technologien:

  • Delphi und Microfocus -Cobol.
Feb 2023 - Feb 2024
1 year 1 month
Baar, Switzerland

inkl. CI/CD, Automatisierung

AALS Software AG

A Real Time & Hands-On course on Flink Hadoop tutorial with MapReduce, HDFS, Spark, Flink, Hive, HBase, MongoDB, Cassandra, Kafka. Umfangreiche Engineering Erfahrung inkl. DevOps (inkl. CI/CD, Automatisierung).

  • Erfahrung mit BigData Technologien und Kafka, (Confluence Strimzi, Pinot).
  • Erfahrung in der Versicherung (Agentur).
  • Hohe Motivation insbes. auch Bereitschaft für Vorort-Einsatz, (wohnt in CH).
  • Kurzfristig verfügbar (Hoher Onsite-Anteil möglich, wenn gewünscht).
  • ETL / ELT pipline with Apache Tools und Pentaho.
  • Projektleiter Kommunalsoftware, Finanzdienstleister, Bigdata Kafka.
  • Fachliche Expertise in den Branchen Versicherung, eCommerce, Handel, Banken, Telekommunikation, Public Administration, Kommunalverwaltung.
  • Solution Architektur Kontext Cloud Data Science Modell Entwicklung AI NLP Chatbot (RASA, Chatter, Dialogflow).
  • Data Engineering (Pipelines).
  • DevOps Software Entwicklung.
  • Wissensdatenbank TypeDB.
  • Openstack Basis Kubernetes Podmann.

Die Hauptaufgabe dieses Projekts bei der AALS Software AG bestand darin, einen praxisnahen Echtzeit-Kurs zu Flink Hadoop anzubieten, der verschiedene Big-Data-Technologien und DevOps-Praktiken mit besonderem Schwerpunkt auf Automatisierung und CI/CD-Prozesse einbezieht.

Verantwortlichkeiten:

  • Entwicklung eines praxisnahen Flink-Hadoop-Kurses mit MapReduce, HDFS, Spark, Flink, Hive, HBase, MongoDB, Cassandra und Kafka.
  • Erlangung umfassender technischer Erfahrung, einschließlich DevOps und CI/CD-Automatisierung.
  • Erfahrung mit BigData-Technologien und Kafka sammeln.
  • Arbeiten vor Ort in der Schweiz.
  • Erstellen von ETL/ELT-Pipelines mit Apache Tools und Pentaho.
  • Leiten von Projekten in den Bereichen kommunale Software, Finanzdienstleistungen und BigData Kafka.
  • Entwicklung von KI-Modellen und Chatbots mit RASA, Chatter und Dialogflow.
  • Entwicklung von Datenpipelines.
  • Arbeit an Software-Entwicklungsprojekten.
  • Verwalten einer TypeDB-Wissensdatenbank.
  • Arbeiten mit OpenStack-Grundlagen und Kubernetes.

Technologien:

  • HDFS
  • ETL
  • DevOps
  • Cloud
  • Apache Hbase
  • Pentaho
  • ELT
  • MongoDB
  • Kubernetes
  • Kafka
  • CI/CD
  • MapReduce
  • Hadoop
  • NLP
  • Apache Spark
  • BigData
  • Cassandra
  • OpenStack
Nov 2022 - May 2023
7 months
Baar, Switzerland

Data IoT Ingenieur

AALS Software AG

  • Überprüfung einer OPC AU Redis Influx.
  • Erstellen einer Ist-Analyse hinsichtlich der Anforderung der Datenspeicherung, Datenverarbeitung, Datenstrom und Dateiformat für die Anwendungsfälle IQ-Kontrolle, Service-Info, Fertigungsdaten und Achs-Monitoring Technologie.
  • Beratung des Unternehmens hinsichtlich passender Datenbanken für jeden Anwendungsfall.
  • Effizienzsteigerung durch Abgabe einer erfolgreichen Handlungsempfehlung für das Unternehmen.
  • Kafka IoT Streaming.
  • Daten in Azure Data Factory für Auswertungen.

Hauptaufgabe des Projekts war die Analyse und Optimierung von Datenspeicherung, -verarbeitung und -streaming für verschiedene Anwendungsfälle sowie die Beratung zu geeigneten Datenbanken und damit die Steigerung der Effizienz. Dies wurde mit Hilfe von IoT-Streaming und Azure Data Factory für Auswertungen erreicht.

Verantwortlichkeiten:

  • Analysierte und optimierte die Datenspeicherung, -verarbeitung und das Streaming für verschiedene Anwendungsfälle.
  • Beratung zu geeigneten Datenbanken, um die Effizienz zu steigern.
  • Nutzte IoT-Streaming und Azure Data Factory für Auswertungen.
  • Überprüfte OPC AU Redis Influx.
  • Erstellte eine Analyse der Anforderungen an Datenspeicherung, Datenverarbeitung, Daten-Streaming und Dateiformate für die Anwendungsfälle IQ-Control, Service Info, Fertigungsdaten und Achsenüberwachungstechnologie.
  • Beratung des Unternehmens über geeignete Datenbanken für jeden Anwendungsfall.
  • Verbesserte die Effizienz durch die Bereitstellung erfolgreicher Empfehlungen für das Unternehmen.
  • Implementierung von Kafka IoT Streaming.
  • Verwaltete Daten in Azure Data Factory für Auswertungen.

Technologien:

  • Kafka Docker
  • Cassandra Data-Stax
  • Python Sript
  • Graph und Spark
  • Ansible
  • Grafana
  • Prometheus
  • Azure Data Factory
Feb 2020 - Present
5 years 5 months
Zug, Switzerland

Data Ingenieur

AALS Software AG

Es git drei Ziele:

  • Custom ChatGPT With Custom Knowledge Base: ChatGPT in Kombination mit LlamaIndex wird, ein benutzerdefinierter ChatGPT-Chatbot erstellt, der in der Lage ist, Wissen aus seinen eigenen Dokumentquellen abzuleiten. Während ChatGPT und andere LLMs ziemlich mächtig sind, bietet die Erweiterung des LLM-Modells eine viel anspruchsvollere Erfahrung und eröffnet die Möglichkeit, einen Chatbot im Konversations-Stil zu bauen, der für reale Geschäftsanwendungen wie Kunden-Support oder sogar Spam-Klassifikatoren verwendet wird.
  • Document ChatBot with GPT-3 and Langchain: Chatbots hat die Fähigkeit, menschliche Sprache zu interpretieren, mit Hilfe von GPT-3, einem von OpenAI entwickelten Sprachgenerierungsmodell, erstellt werden können. GPT-3 ist in der Lage, Aufgaben der natürlichen Sprachverarbeitung wie Textvervollständigung, Übersetzung und Zusammenfassung durchzuführen.
  • Ask Questions About Your Documents. KnowledgeGPT - Fragen zu Dokumenten stellen: KnowledgeGPT ist eine auf Python basierende Webanwendung, die mit Streamlit erstellt wurde. Sie ermöglicht es Ihnen, ein Dokument hochzuladen und Antworten auf Fragen zu erhalten, die Sie zu diesem Dokument stellen.

Die Hauptaufgabe des Projekts "Custom ChatGPT With Custom Knowledge Base" bei AALS Software AG ist es, einen fortschrittlichen Chatbot zu entwickeln, der in der Lage ist, Wissen aus seinen eigenen Dokumentenquellen abzuleiten, menschliche Sprache mit GPT-3 zu interpretieren und Fragen zu hochgeladenen Dokumenten zu beantworten.

Aufgaben und Verantwortlichkeiten:

  • Entwicklung eines benutzerdefinierten ChatGPT-Chatbots unter Verwendung von ChatGPT und LlamaIndex.
  • Erweitern Sie das LLM-Modell, um die Fähigkeiten des Chatbots zu verbessern.
  • Verwenden Sie den Chatbot für echte Geschäftsanwendungen wie Kundensupport oder Spam-Klassifizierer.
  • Erstellen eines Dokumenten-Chatbots unter Verwendung von GPT-3 und Langchain zur Interpretation menschlicher Sprache.
  • Nutzung von GPT-3 für die Verarbeitung natürlicher Sprache wie Textvervollständigung, Übersetzung und Zusammenfassung.
  • Erstellen einer Python-basierten Webanwendung, KnowledgeGPT, mit Streamlit.
  • Ermöglicht das Hochladen von Dokumenten und die Beantwortung von Fragen zu Dokumenten auf KnowledgeGPT.

Technologien für dieses Projekt:

  • HuggingFace
  • Mistaral 7b
  • Falcon 7B
  • Typedb
  • VectorDB
  • KnowledgeGPT
  • Chatbot gpt-3X
  • OpenAI
  • Python
  • Rust
  • Streamlit
  • Delphi und Microfocus -Cobol

Weitere Projekte und Aufgaben umfassen:

  • Durchführung einer Erwartungshaltungsanalyse.
  • Analyse und Verbesserung der Performance mittels statistischen Tests.
  • Erstellung einer Zielarchitektur für Business-Intelligence.
  • Entwicklung eines nachvollziehbaren Verfahrens für die Fachabteilungen.
  • Zur Informationssammlung wurden alle publizierten Texte kategorisiert und über Chatbot zur Verfügung gestellt.
  • Es wird ein Dynamisches Profil der Personen erstellt die als inBound Lead in Frage kommen.
  • DWH Datalake und Datalakehouse mit Pentaho.
  • Teaching a Chatbot to Understand Your Documents Chat with Dokument, PDF sumarization.
  • Security und Ethic mit den LLM’s.
  • Kafka als Kommunikation System in Schulen und Gemeinden.
  • NLP Natural Language Processing Chatbot Streamlit Pinot.
  • ELT statt ETL Gib bedeutende Verbesserung Datastack.

Die Hauptaufgabe des Projekts besteht darin, die Verarbeitung natürlicher Sprache zu nutzen, um einen Chatbot zu entwickeln, der veröffentlichte Textdokumente kategorisiert und sie durch einen Dialog zugänglich macht, um die Datenverarbeitung und die Business Intelligence zu verbessern.

Aufgaben und Technologien in diesem Kontext:

  • Spark, Databricks, Kafka, Web-Scraping, Python.
  • Sicherheitsüberprüfung der Container Avr0.
  • MinIO und Ceph, Accumulo, nGraph.
  • GCP Platform, Kedro, Pentaho.
  • One-Click Kafka Bereitstellung für Entwickler.
  • OpenAI, Bard, HuggingFace.
  • Weitere Technologien: Kafka; Apache Spark; Bard; Kedro; nGraph. GCP Platform; Accumulo; Web-Scraping; HuggingFace; Databricks.
Feb 2020 - Feb 2022
2 years 1 month
Zug, Switzerland

DataScience

Winiker-Immobilien, Zug / Schweiz

  • Bewertung und Vorhersage von Mietinteressenten vor der Vergabe von Mietverträgen.
  • Erstellung von statistischen Aussagen mittels klassischem Clustering.
  • Aufbereitung und Verwendung von Daten der Mieter zur Entwicklung von Vorhersagen mit Random Forest.
  • Reporting mit Hilfe von Power BI.
  • Visualisierung mit Hilfe von Bekeh und Dash.
  • Aufbau Power BI und Tableau als Lead BI.
  • Migration der Applikation auf GCP Plattform.
  • Aufbau eines Delta Lakehouse.
  • Die meisten Daten sind unstrukturiert.
  • Unterhaltsdaten sind RDB, Skalieren und Steuern mit Kubernetes.

Weitere Details:

  • Erfolgreiche Reduzierung der Mieterfluktuation durch verbessertes Clustering.
  • Einsatz von Hana Community als DB.
  • Kafka für die Kommunikation.
  • Data Factory für Weiterverarbeitung.
  • Zusätzliche Delta Lakehouse als Persistent Daten Haltung.

Verantwortlichkeiten:

  • Evaluate potential tenants before rental contract allocation.
  • Create statistical predictions using classic clustering.
  • Prepare and utilize tenant data to develop predictions with Random Forest.
  • Report utilizing Power BI.
  • Visualize data with Bekeh and Dash.
  • Develop Power BI and Tableau as Lead BI.
  • Migrate application to GCP platform.
  • Build a Delta Lakehouse.
  • Analyze mostly unstructured data.
  • Maintain RDB data.
  • Scale and control with Kubernetes.

Technologien:

  • Kafka
  • Python
  • Databricks Data-Stax
  • Basis Openstack
  • OpenCV und OpenAI
  • py- Torch
  • Tensorflow
  • Keras
  • Pandas
  • Numpy
  • Tableau
  • Microsoft Power BI
  • Data Factory
Feb 1999 - Feb 2005
6 years 1 month
Zug, Switzerland

Projekt Leader

AALS Software AG

  • Entwicklung einer Schuladministration Lead-Entwickler Delphi und Microfocus -Cobol, Hana vormals (SybaseDB ASE).
  • Basis Ich arbeite seit 1985 mit Sql Anywhere ASE vormals Watcom. Jetzt Hana, SUSE Linux.
  • Ich habe mit dem SQL Syntax (Storeprocedure) eine Fakturierung ein Lohnsystem geschrieben.
  • Wir haben 1990 die ganze DB ins Memory geladen, weil sie als einzige das möglich machte, wenn man sie kannte.
  • Mit der t-Sql Sprache von (ASE/Hana) haben wir eine Fakturierung, Lohnsystem und Steuersystem geschrieben.

Die Hauptaufgabe des Projekts "Öffentliche Verwaltung Schuladministration" war die Entwicklung eines Schulverwaltungssystems unter Verwendung von Delphi und Microfocus-Cobol, Hana (früher SybaseDB ASE).

Verantwortlichkeiten:

  • Entwicklung eines Schulverwaltungssystems mit Delphi und Microfocus-Cobol, Hana (früher SybaseDB ASE).
  • Schreiben von Abrechnungs- und Gehaltsabrechnungssystemen mit SQL-Syntax (Storeprocedure).
  • Laden Sie die gesamte Datenbank in den Speicher.
  • Verwenden Sie die t-SQL Sprache von (ASE/Hana), um ein Abrechnungs-, Lohn- und Steuersystem zu schreiben.
  • Leitung des Projekts als Delphi-Entwickler, Architekt und Projektleiter.
  • Nutzung der Kenntnisse in Linux, Linux OS, HANA, ASE Sybase, Delphi und Microfocus-Cobol.

Technologien:

  • Linux
  • HANA
  • ASE Sybase
  • Linux OS
  • Delphi und Microfocus -Cobol
Feb 1985 - Feb 1999
14 years 1 month
Zug, Switzerland

Projekt Leader

AALS Software AG

  • Entwicklung einer Kommunalverwaltungssoftware mit Microfocus -Cobol SybaseDB ASE, SUSE linux.
  • Projekt öffentliche Verwaltung Migration zOS to Asure 2022.
  • Zur Verlagerung von Lösungen von einem Mainframe zu Azure soll eine stufenweise Migration beinhalten.
  • Wir verschoben zunächst einige Anwendungen, während andere vorübergehend oder dauerhaft auf dem Mainframe verbleiben.
  • Dieser Ansatz erfordert in der Regel Systeme, die die Interoperabilität von Anwendungen und Datenbanken zwischen dem Mainframe und Azure ermöglichen.
  • Glücklicherweise gabt es eine breite Palette von Lösungen, die eine Integration zwischen Azure und bestehenden Mainframe-Umgebungen.

Die Hauptaufgabe des Projekts war die Entwicklung einer kommunalen Verwaltungssoftware unter Verwendung von Microfocus-Cobol SybaseDB ASE und SUSE Linux sowie die schrittweise Migration von Lösungen von einem Mainframe zu Azure, wobei die Interoperabilität von Anwendungen und Datenbanken zwischen dem Mainframe und Azure sichergestellt werden sollte.

Verantwortlichkeiten:

  • Entwicklung kommunaler Verwaltungssoftware mit Microfocus-Cobol, SybaseDB ASE und SUSE Linux.
  • Leitung des Projekts der öffentlichen Verwaltung für die Migration von zOS zu Azure im Jahr 2022.
  • Implementierung einer schrittweisen Migration zur Verlagerung von Lösungen von einem Mainframe zu Azure.
  • Sicherstellen, dass bestimmte Anwendungen vorübergehend oder dauerhaft auf dem Mainframe verbleiben.
  • Einrichtung von Systemen zur Gewährleistung der Interoperabilität von Anwendungen und Datenbanken zwischen dem Mainframe und Azure.
  • Nutzen Sie eine Reihe von Lösungen für die Integration zwischen Azure und bestehenden Mainframe-Umgebungen.
  • Erfüllen von Rollen als Entwickler, Architekt und Projektleiter.
  • Nutzen Sie Ihre Kenntnisse in Delphi und Microfocus-Cobol.

Technologien:

  • Delphi und Microfocus -Cobol

Summary

Engagierte und erfolgsorientierte Führungspersönlichkeit mit Durchsetzungsstärke und sehr guten analytischen Fähigkeiten.

Languages

German
Native
English
Advanced

Education

Schweizerisches Institut für Betriebsökonomie

Bachelor · Betriebsökonomie · Zürich, Switzerland

HKG Juventus

Bachelor · Diplomkaufmann · Hong Kong

Certifications & licenses

Abend Technikum

Hochschule für Technik,Schweiz

Driving license:: A, B - Moto and Car