Das Ganze ist mehr als die Summe seiner Teile: Als sogenannte Metaanalyse untersucht LEADING EMPLOYERS eine große Bandbreite an Quellen, Feedbacks und Themen. Deren Kombination ermöglicht eine deutlich höhere Aussagekraft als in einer Einzelstudie.
Der Studienablauf
im detail:
Potenzielle Quellen werden über eine Vielzahl von Kanälen identifiziert, darunter Karrierewebseiten von Unternehmen mit Arbeitgebendenauszeichnungen, HR-bezogene Blogeinträge oder Fachartikel, berufliche Netzwerke wie LinkedIn, suchwortbasierte Recherchen über Google, länderübergreifende Vergleiche sowie Hinweise aus der Öffentlichkeit oder unserem Advisory Board.
Das leitende Prinzip bei der Zusammenstellung dieser Quellen besteht darin, aus vielfältigen Fragmenten ein möglichst vollständiges und realistisches Gesamtbild zu konstruieren. Je facettenreicher das Portfolio der berücksichtigten Kriterien, desto höher ist die Wahrscheinlichkeit, sogenannte „schwarze Schafe“ von echten Spitzenperformern unterscheiden zu können.
Um methodische Konsistenz und Qualität sicherzustellen, erfolgt die Identifikation und die Bewertung der Quellen fortlaufend. Der Prüfprozess untersucht deren Integrität und Qualität entlang mehrerer Dimensionen. Dazu zählen der Typ der Quelle (z. B. Auditberichte, Umfragen, öffentliche Bewertungsportale), der Forschungsansatz (Selbstauskunftsmechanismen versus unabhängige Studien) sowie die Relevanz der Daten (beispielsweise die Anzahl von Mitarbeitendenbewertungen im Verhältnis zur Gesamtzahl der Beschäftigten eines Unternehmens). Weitere Kriterien betreffen Validierungsverfahren, Schutzmechanismen vor Manipulation, die Verfügbarkeit von Beschwerde- oder Korrekturmechanismen sowie die Frage, ob eine Quelle unter der Aufsicht wissenschaftlicher Institutionen oder staatlicher Stellen steht. Für weiterführende Informationen siehe Abschnitt 2. Klassifizierung und Standardisierung von Quellen.
Dieser multidimensionale Ansatz stellt sicher, dass neu integrierte Quellen unseren Qualitätsstandards entsprechen und damit die Robustheit, Reliabilität und Validität des gesamten Studiendesigns stärken.
Die Quellen werden auf Grundlage ihrer Relevanz und Qualität klassifiziert, um Konsistenz im gesamten Bewertungsprozess sicherzustellen. Diese Klassifizierung betrachtet mehrere Dimensionen und bildet die Grundlage für eine wissenschaftlich valide Analyse.
- Inhaltliche Zuordnung: Jede Quelle wird hinsichtlich ihres Inhalts überprüft und thematisch einem oder mehreren der neun Studienbereiche zugeordnet. Da die Dimensionen miteinander verknüpft sind, kann eine Quelle mehreren Kategorien zugeordnet werden, sofern ihre Inhalte bereichsübergreifend relevant sind.Geografische Relevanz: Neben dem Inhalt wird der geografische Geltungsbereich jeder Quelle bestimmt. Dabei wird unterschieden zwischen regionalen Quellen (lokale Bedeutung), nationalen Quellen (landesweite Relevanz) und transnationalen bzw. globalen Quellen. Letztere umfassen etwa europäische, asiatische oder afrikanische Regionen sowie global gültige Referenzen.
- Quellentyp: In die Klassifizierung fließt ein, ob es sich um ein strukturiertes Audit, eineUmfrage, einen Jurypreis, ein HR-Benchmark, eine Selbstauskunft, eineMitgliedschaft oder ein öffentliches Bewertungsportal handelt.
- Forschungsansatz: Es wird geprüft, ob die Daten aus unabhängiger Forschung, extern validierten Verfahren oder aus Self-Enrolment-Mechanismen stammen.
- Validierungund Kontrolle: Schließlich wird die Robustheitjeder Quelle hinsichtlich Validierungsprozessen, Schutz vor Manipulation,Verfügbarkeit von Beschwerde- oder Korrekturverfahren sowie – sofern möglich –einer wissenschaftlichen oder behördlichen Anerkennung überprüft.
- Existenzdauer und Aktualität: Berücksichtigt wird, wie lange eine Quelle bereits existiert. Für die Analyse ist die nachhaltige Entwicklung eines Unternehmens über die Jahre entscheidend. Gleichzeitig wird darauf geachtet, dass jede Quelle hinreichende Relevanz und Aktualität besitzt, um belastbare und zeitgemäße Ergebnisse zu gewährleisten.
Durchdiesen mehrstufigen Klassifizierungsprozess wird sichergestellt, dass alleQuellen nicht nur inhaltlich und geografisch korrekt eingeordnet, sondern auchin Hinblick auf Qualität, Unabhängigkeit, Aktualität und Glaubwürdigkeitstandardisiert werden. Dieser systematische Ansatz stärkt sowohl dieReliabilität als auch die Validität der Studienergebnisse und unterstreicht diewissenschaftliche Integrität des gesamten Bewertungsverfahrens.
Der Prozess der Datenerhebung ist darauf ausgelegt, aus jeder Quelle die maximal verfügbaren Informationen zu erfassen und dabei sowohl Breite als auch Tiefe der Abdeckung sicherzustellen. Hierfür wird ein hybrides Vorgehen eingesetzt, das automatisierte Sammlung mit manueller Verifizierung kombiniert.
Automatisierte Datenerhebung erfolgt über spezialisierte Tools und Research Agents, die auf führende Branchendatenbanken zugreifen und externe Quellen wie Cognism zur Anreicherung von Markt- und Unternehmensinformationen integrieren. Dadurch wird eine großskalige, effiziente Datenanreicherung und -validierung für hunderttausende von Unternehmen und 500+ unterschiedlichen Quellen ermöglicht.
Datenspeicherung und -management basieren auf einer robusten und skalierbaren Infrastruktur. Postgres dient als zentrale, leistungsfähige Datenbank, während Supabase Funktionen für Authentifizierung und Vektor-Speicherung bereitstellt. n8n unterstützt die Prozessautomatisierung und gewährleistet reibungslose Abläufe von der Erhebung bis zur Integration.
Report-Erstellung und Analyse werden durch den Einsatz mehrerer Large Language Models (LLMs) wie OpenAI und Gemini ermöglicht. Diese erlauben KI-gestützte Analysen, eine dynamische Bewertungslogik sowie eine kontextbasierte Interpretation der erhobenen Daten.
Manuelle Datenerhebung ergänzt das automatisierte System: Datenanalysten extrahieren Informationen direkt aus den jeweiligen Quellen, um auch qualitative und nicht standardisierte Datenpunkte zuverlässig in das Studiendesign einzubinden.
Durch die Kombination aus automatisierter Skalierbarkeit, strukturierter Speicherung und KI-gestützter Berichterstellung mit manueller Präzision entsteht ein Ansatz, der umfassende, verlässliche und wissenschaftlich validierte Erkenntnisse sicherstellt.
Um Genauigkeit und Relevanz zu gewährleisten, durchläuft der Datenbestand einen sorgfältigen Bereinigungsprozess. Für den Abgleich von Unternehmensnamen und die Beseitigung von Dubletten wird ein mehrstufiges Verfahren angewandt, das Methoden der Natural Language Processing (NLP) mit fortgeschrittenen Sprachmodellen kombiniert. Dazu gehören die Normalisierung von Unternehmensnamen, der Vergleich von Varianten und Ähnlichkeiten sowie semantische Prüfungen mithilfe von Large Language Models (LLMs), um eine hohe Datenqualität sicherzustellen. Eine manuelle Verifizierung ergänzt diesen Prozess, um die Genauigkeit bei zentralen Datenpunkten zu gewährleisten. Nach der Konsolidierung werden Ein- und Ausschlusskriterien angewandt, um Unternehmen herauszufiltern, die zu klein, inaktiv oder aufgrund erheblicher Reputationsprobleme nicht relevant sind.
Im Falle nicht eindeutiger Ergebnisse wird die Bereinigung von Dubletten durch manuelle Prüfungen ergänzt. Dieser Prozess ist zeitaufwändig und erfolgt nach folgenden Prinzipien, unter anderem:
- Gab es Umbenennungen desselben Unternehmens?
- Haben Fusionen, Übernahmen oder strukturelle Veränderungen stattgefunden?
- Lassen sich Rückschlüsse aus postalischen Adressen ziehen?
- Identifikation von Zusammenhängen zwischen Einträgen, die alphabetisch nicht nebeneinanderstehen, beispielsweise:
SC (als Abkürzung), The Sample Company (mit Präfix), Founder’s Sample Company (unter Einbeziehung des Namens der Gründer) usw.
Darüber hinaus existiert eine Vielzahl unterschiedlicher Branchenzuordnungen und Beschreibungen. Um der Vielfalt an Klassifikationen und individuellen Verständnissen gerecht zu werden, erfolgt die Branchenklassifikation automatisiert über das Glassdoor-Netzwerk, da es weltweit verfügbar ist und somit eine konsistente Grundlage für globale Vergleiche bietet.
Durch diese Kombination aus automatisierten Sprachtechnologien und manuellen Prüfprinzipien erreicht die Studie ein hohes Maß an Robustheit, Reliabilität und Validität in der Phase der Datenaufbereitung.
Der Scoring-Prozess ist als mehrstufiges Evaluationsverfahren konzipiert, das Fairness und Genauigkeit sicherstellen soll. Die Punktevergabe pro Quelle orientiert sich unmittelbar an deren Qualität und relativer Bedeutung. So erhält beispielsweise eine Selbstverpflichtungserklärung weniger Punkte als ein umfassendes Reporting, das neben zeitlichem und finanziellem Aufwand auch Mitarbeitende einbindet und konkrete Folgemaßnahmen auf Basis der Ergebnisse erfordert.
Der Prozess beginnt mit der Bewertung der Relevanz einzelner Datenpunkte in Bezug auf die neun zentralen Themenbereiche der Studie. Mitarbeitendenbewertungen werden nur dann berücksichtigt, wenn ein definierter Teilnahme- und Repräsentativitätsschwellenwert erreicht ist; bleibt dieser unerfüllt, werden die Daten ausgeschlossen. Sobald die Schwelle überschritten wird, erfolgen keine weiteren Gewichtungsanpassungen, sodass ausschließlich belastbare Datensätze in die Ergebnisse einfließen.
Neben dem Gesamtranking werden auch Rankings für jede der neun Kategorien sowie differenzierte Regionen-, Städte- und Branchenrankings erstellt. In die neun Bereichsrankings fließen neben klassischen Quellen auch themenspezifische Werte aus Mitarbeitendenbewertungsportalen ein – beispielsweise der CEO-Score im Bereich Leadership. Auf diese Weise werden externe Wahrnehmungen inhaltlich sinnvoll den jeweiligen Dimensionen zugeordnet und tragen zur Validität der Ergebnisse bei.
Der Prozess der Qualitätssicherung ist darauf ausgerichtet, die Datenakkuratheit durch stringente Bereinigungs- und Anreicherungsschritte sicherzustellen.
Mehrere Plausibilitätsprüfungen, einschließlich Anomalieerkennung, werden eingesetzt, um Inkonsistenzen zu identifizieren, etwa ungewöhnlich hohe Scores bei gleichzeitig nur sehr wenigen zugrunde liegenden Quellen.
Als Standardverfahren erfolgt zudem die systematische Überprüfung von sowohl sehr geringen als auch extrem hohen Ergebnissen, um Ausreißer frühzeitig zu erkennen und ein realistisches Bild zu gewährleisten. Diese automatisierten Prüfungen werden durch detaillierte manuelle Kontrollen ergänzt, wodurch sichergestellt wird, dass sämtliche Ergebnisse sowohl verlässlich als auch repräsentativ bleiben.
Darüber hinaus werden Stichprobenprüfungen für alle Arten der erhobenen Daten durchgeführt. Dazu zählen Vergleiche mit den Ergebnissen aus Vorjahren, die Überprüfung der URLs von Karriereseiten, die Feststellung, ob das Unternehmen in seiner aktuellen Form noch besteht, sowie die Beurteilung der Qualität der jeweiligen Karrierewelt. Ebenso werden potenzielle Unternehmensveränderungen berücksichtigt, etwa Umfirmierungen, Fusionen, Übernahmen oder Insolvenzverfahren.
Durch diese Kombination aus automatisierten Prüfmechanismen und gezielten manuellen Validierungen wird ein hohes Maß an Robustheit, Validität und Transparenz der Studienergebnisse sichergestellt.
a. Aufbau und Struktur der Ergebnisreporte
Die Reports stellen die individuellen Ergebnisse eines ausgezeichneten Unternehmens dar und folgen einer klaren analytischen Logik. Sie beginnen mit dem Gesamtranking und der zeitlichen Entwicklung, gefolgt von den Resultaten in neun Bewertungsdimensionen, die im Branchen- und Größenvergleich eingeordnet werden. Vertiefende Analysen heben Stärken und Entwicklungsfelder hervor, ergänzt durch externe Wahrnehmungsdaten wie Karriereportale oder Social Media. Den Abschluss bilden priorisierte Handlungsempfehlungen, die direkt aus den Ergebnissen abgeleitet sind.
- Management Summary: Überblick über die Gesamtperformance, Top-Bereiche, Quick Wins und Entwicklungsfelder.
- Ergebnisse: Detaillierte Darstellung auf Gesamt- und Themenebene sowie differenziert nach Stadt, Region und Branche.
- Insights: Benchmarks, Stärken und Optimierungspotenziale für eine kontextbasierte Einordnung.
- Handlungsempfehlungen: Präzise, priorisierte Empfehlungen auf Basis der Analyse.
Die Erstellung basiert auf einer technologisch robusten Infrastruktur (Postgres, Supabase, n8n, LLMs wie OpenAI und Gemini, u.a.) und wird durch menschliche Qualitätskontrolle abgesichert. Damit erfüllen die Reports die zentralen Gütekriterien wissenschaftlicher Forschung: Reliabilität, Validität und Objektivität. Sie verbinden methodische Strenge mit praxisrelevanten Handlungsperspektiven und schaffen eine transparente, datengetriebene Grundlage zur Evaluation von Recruiting-Exzellenz.
b. Vom Recruiting Performance Check zum Recruiting Performance Portal
Das Recruiting Performance Portal erweitert den bisherigen Recruiting Performance Check zu einem umfassenden Analysetool. Neben der Auswertung von Karriereseiten und Stellenanzeigen umfasst es KI-gestützte Chat-Interaktionen, die adaptive Rückmeldungen ermöglichen, sowie SEO- und Geo-Analysen und die Identifikation von Optimierungspotenzialen. Damit verbindet das Portal empirische Evidenz mit handlungsorientierter Anwendungslogik und schafft eine belastbare Grundlage für die strategische Weiterentwicklung des Recruitings.
Mit dem Relaunch wurde die Bewertungslogik grundlegend modernisiert. Das frühere System 2025 folgte einer regelbasierten Prüfungsstruktur mit additiver Punktelogik, vergleichbar mit einem Multiple-Choice-Test. Das neue System 2026 nutzt hingegen einen kognitiv erweiterten Ansatz auf Basis leistungsfähiger Large Language Models. Diese ermöglichen eine semantisch differenzierte, kontextbasierte Bewertung, die den komplexen Zusammenhängen realer Recruitingprozesse gerecht wird.
Zudem erlaubt das System die Integration organisationsspezifischer Fragestellungen, wodurch individualisierte und zugleich wissenschaftlich valide Ergebnisse generiert werden. In Kombination mit Enhanced Reporting entsteht so ein technologisch hochmodernes, transparentes und wissenschaftlich fundiertes System, das eine robuste Grundlage für die Evaluation von Arbeitgebendenqualität bietet.