Bei der Einrichtung eines Einstellungsverfahrens in großem Maßstab ist es wichtig, erfahrene Ingenieure und Talente zu gewinnen, die das Gesamt-Know-how des Unternehmens verbessern oder fehlende Fähigkeiten ausgleichen. Das wettbewerbsintensive Umfeld erschwert die Suche nach qualifizierten Kandidaten, da viele Unternehmen um denselben Talentpool konkurrieren. Es ist entscheidend, die Einstellungspipeline wie eine Vertriebspipeline zu behandeln und ihre "Temperatur" laufend zu messen, um Effizienz und Erfolg sicherzustellen. Ohne ständige Überwachung drohen Zeitverlust und Ineffizienz im Rekrutierungsteam. Der Erfolg bei Massen-Einstellungen hängt davon ab, Schlüsselpositionen schnell zu besetzen und Engpässe im Prozess zu erkennen und zu beseitigen. Verschiedene Stellenbeschreibungen für dieselbe Funktion über unterschiedliche Kanäle zu testen, kann helfen, mehr hochwertige Kandidaten zu gewinnen, erfordert aber zusätzlichen Aufwand. Klare Fristen für jede Phase des Prozesses und das Verfolgen der wöchentlichen Einstellungen helfen, ein gleichmäßiges Tempo zu halten und den zukünftigen Bedarf besser zu planen. Ein gut definiertes System zur beruflichen Entwicklung ist nötig, um Kandidaten während des Prozesses objektiv zu bewerten und die richtigen Personen an Bord zu holen. Durch kontinuierliches Messen und Verbessern der Pipeline steigern Unternehmen ihre Chancen, ein starkes, talentiertes Team aufzubauen.
Hauptaufgabe des Projekts "Aufbau einer datengesteuerten Einstellungsmaschine" war es, einen datenbasierten Einstellungsprozess zu etablieren, um erfahrene Ingenieure und Talente zu rekrutieren, das Know-how zu stärken und fehlende Fähigkeiten auszugleichen.
Das Unternehmen suchte einen Gründungsingenieur mit Erfahrung in Ethereum und Smart Contracts. Probleme bei der Ausschreibung durch Junior-Recruiter sollten durch eine KI-basierte Plattform mit semantischer Suche gelöst werden. Dafür werden mit der HuggingFace Transformers-Bibliothek Einbettungsvektoren erstellt, um Stellenanzeigen kontextuell mit Lebensläufen abzugleichen.
Technologien:
Praxisnaher Echtzeit-Kurs zu Flink und Hadoop mit MapReduce, HDFS, Spark, Flink, Hive, HBase, MongoDB, Cassandra und Kafka. Umfangreiche Engineering-Erfahrung inklusive DevOps (CI/CD, Automatisierung).
Hauptaufgabe war die Entwicklung eines praxisnahen Flink-Hadoop-Kurses mit besonderem Fokus auf Automatisierung und CI/CD.
Verantwortlichkeiten:
Technologien:
Hauptaufgabe war die Analyse und Optimierung von Datenspeicherung, -verarbeitung und -streaming sowie Beratung zu Datenbanken, um Effizienz zu steigern. IoT-Streaming und Azure Data Factory wurden für Auswertungen genutzt.
Verantwortlichkeiten:
Technologien:
Drei Ziele:
Hauptaufgabe war die Entwicklung eines fortschrittlichen Chatbots, der Wissen aus Dokumenten bezieht, menschliche Sprache mit GPT-3 interpretiert und Fragen zu hochgeladenen Dokumenten beantwortet.
Aufgaben und Verantwortlichkeiten:
Technologien:
Weitere Aufgaben:
Aufgaben und Technologien:
Erfolge:
Verantwortlichkeiten:
Technologien:
Hauptaufgabe war die Entwicklung eines Schulverwaltungssystems unter Einsatz von Delphi, Microfocus-Cobol und HANA.
Verantwortlichkeiten:
Technologien:
Hauptaufgabe war die Entwicklung einer kommunalen Verwaltungssoftware und die schrittweise Migration zu Azure mit Interoperabilität zwischen Mainframe und Cloud.
Verantwortlichkeiten:
Technologien:
Engagierte und erfolgsorientierte Führungspersönlichkeit mit Durchsetzungsstärke und sehr guten analytischen Fähigkeiten.
Entdecken Sie andere Experten mit ähnlichen Qualifikationen und Erfahrungen.