STREIT 1/2024

S. 14-21

Diskriminierungspotenzial bei Online-Stellenanzeigen

Die digitale Transformation verändert zahlreiche Lebensbereiche durch den Einsatz immer leistungsfähigerer Techniken und Technologien. Bestimmte Tätigkeiten werden nicht länger von Menschen, sondern vollautomatisiert durch Maschinen, Roboter und andere Systeme Künstlicher Intelligenz (KI)1 ausgeführt. Auch arbeitsbezogene Entscheidungen werden zunehmend durch oder mit Hilfe von Algorithmen2 getroffen. Gleichzeitig entstehen neue wirtschaftliche Tätigkeiten wie Plattformdienste oder die Gig Economy. Zu den zentralen Herausforderungen dieses Digitalisierungsprozesses zählt seine geschlechtergerechte und diskriminierungsfreie Ausgestaltung.3
Ein Bereich, in dem diese Veränderungen – aber auch die damit einhergehenden Risiken für (historisch) diskriminierungsgefährdete Gruppen besonders deutlich werden, ist die Arbeitswelt. Diskriminierung von Frauen in der Arbeitswelt hat Tradition – eine Tradition, die die digitale Transformation weiterführt?
Der Berufsweg beginnt zumeist mit der Arbeitssuche. Während Stellenanzeigen früher hauptsächlich in Printmedien veröffentlicht wurden, findet die Suche nach geeigneten Mitarbeiter*innen heute fast ausschließlich online statt. Jobportale im Internet, die eigene Unternehmenswebsite und Social Media Plattformen gelten als wichtigste Rekrutierungskanäle.4 Aus Unternehmenssicht bieten Online-Stellenanzeigen gegenüber Anzeigen in Printmedien eine Reihe von Vorteilen: Anzeigen auf Unternehmenswebsites lassen sich rasch und unkompliziert veröffentlichen und erreichen eine größere Anzahl von Stellensuchenden, ohne zusätzliche Kosten zu verursachen.5 Die Anzeigen können außerdem mit verschiedenen Darstellungsoptionen wie Text, Bildern, Audiodateien oder interaktiven Links kombiniert werden.6 Jobportale und soziale Medien ermöglichen es darüber hinaus, Stellenanzeigen gezielt jenen Personen anzeigen zu lassen, die für die jeweilige Stelle am „passendsten“ erscheinen. Dieses so genannte Targeted Advertising (zielgerichtete Werbung) ist für die Arbeitssuchenden allerdings mit zahlreichen Risiken verbunden: Es kann zu diskriminierenden Ergebnissen führen und bestehende gesellschaftliche Ungleichheiten verstärken.7

I. Ein Klick vor, zwei Klicks zurück

Auf online Jobportalen und sozialen Medien können Unternehmen festlegen, welche Eigenschaften und Merkmale diejenigen Personen aufweisen sollen, denen ihre Stellenanzeigen gezeigt werden. Die Daten der Nutzerinnen werden mit Hilfe von Algorithmen nach den festgelegten Attributen gefiltert und die passendsten Personen ausgewählt. Studien zeigen, dass die Ergebnisse dieses algorithmenbasierten Auswahlprozesses eklatante Biases8 aufweisen: Stellenanzeigen für hochbezahlte Tätigkeiten oder Tätigkeiten im MINT-Bereich (Mathematik, Informatik, Naturwissenschaft und Technik) werden weiblichen Stellensuchenden seltener gezeigt als männlichen.9 US-amerikanische Stellenangebote in der Holzindustrie erreichten zu 90% männliche Nutzer, während Anzeigen für Supermarktkassiererinnen überwiegend weiblichen Personen gezeigt wurden.10 Die zielgerichtete Anzeige von Stellenanzeigen online verläuft also entlang bekannter geschlechterstereotyper vertikaler und horizontaler Segmentierungen des Arbeitsmarktes.11
Anders als bei Print-Stellenanzeigen werden Stellensuchende, die aufgrund von Geschlechterstereotypen und Vorurteilen als weniger geeignet eingestuft werden, nicht (erst) bei der Entscheidung über eine Einladung zu einem Vorstellungsgespräch oder der tatsächlichen Stellenbesetzung benachteiligt: Das automatisierte Targeted Advertising von Online-Stellenanzeigen führt vielmehr dazu, dass Personen(gruppen) gänzlich davon ausgeschlossen werden, bestimmte Stellenanzeigen überhaupt wahrzunehmen. Dies stellt eine massive Benachteiligung beim Zugang zum Arbeitsmarkt und – sofern die Auswahl der Nutzer*innen, die die Anzeige (nicht) sehen, auf persönlichen Merkmalen beruht – ein gravierendes Diskriminierungsrisiko dar.12

II. EU-Rechtsrahmen

Die Einbettung von algorithmischen und KI-unterstützten Tools in fast jedem Bereich des täglichen Lebens hat die EU veranlasst eine Reihe von Gesetzen zu erlassen, die sich den damit einhergehenden Risiken entgegenstellen sollen.

A) EU Verordnungen zum Digitalen Markt

1.) Gesetz über Digitale Dienste
Das Gesetz über digitale Dienste13 gilt für alle Vermittlungsdienste und Plattformen. Es legt einen horizontalen Rahmen für Transparenz, Rechenschaftspflicht und Regulierungsaufsicht fest. Im Hinblick auf Targeted Advertising will das Gesetz negative Auswirkungen vor allem durch höhere Transparenz­anforderungen verringern: Plattformen müssen die Empfängerinnen zielgerichteter Werbung darüber informieren, dass sie zielgerichtete Werbung sehen, in wessen Auftrag diese Werbung angezeigt wird und aufgrund welcher Parameter die Nutzerinnen die Werbung sehen (Art. 26 Gesetz über Digitale Dienste). Die Transparenzanforderungen sollen also sicherstellen, dass Nutzerinnen verstehen, weshalb sie z.B. eine bestimmte Stellenanzeige sehen. Die Nutzerinnen erfahren jedoch nichts darüber, welche Stellenanzeigen sie nicht sehen oder warum sie bestimmte Anzeigen nicht sehen. Das Gesetz über Digitale Dienste kann daher der Behinderung beim Arbeitsmarktzugang, die mit zielgerichteter Werbung verbunden sein kann, nicht wirksam entgegenwirken.

2.) Gesetz über Digitale Märkte
Das Gesetz über Digitale Märkte14 trifft Regelungen für so genannte „Gatekeeper“: Das sind Online-Plattformen mit einer Börsenkapitalisierung von mindestens 75 Milliarden Euro oder einem Jahresumsatz von 7,5 Milliarden Euro, die mindestens 45 Millionen monatliche Endnutzerinnen in der EU und über 10.000 jährliche geschäftliche Nutzerinnen haben. Die Muttergesellschaften von u.a. Google und Facebook werden von der Europäischen Kommission als „Gatekeeper“ eingestuft.15 Das Gesetz über Digitale Märkte verbietet es z.B. Facebook, personenbezogene Daten von Instagram zu sammeln, an Facebook zu exportieren und als Grundlage für zielgerichtete Werbung zu verwenden. Die spezifischen, mit dem Targeted Advertising von Stellenanzeigen verbundenen Herausforderungen werden vom Gesetz über Digitale Märkte allerdings nicht adressiert.

3.) KI-Verordnungsentwurf
Dem KI-Verordnungsentwurf16 liegt ein risikobasierter Ansatz zu Grunde. Je nach Risikoniveau eines KI-Systems sollen unterschiedliche Regeln für das Risikomanagement zum Tragen kommen. KI-Systeme, die für die Einstellung oder Auswahl natürlicher Personen, insbesondere für die Bekanntmachung freier Stellen verwendet werden sollen, gelten als Hochrisikosysteme. In seinen Ergänzungen zum KI-Verordnungsentwurf hat das EU-Parlament die wichtige Klarstellung getroffen, dass darunter insbesondere das Targeted Advertising von Stellenanzeigen zu verstehen ist.17 Die Regelungen der KI-Verordnung sind allerdings nur auf jene KI-Systeme anzuwenden, die nach dem Inkrafttreten dieser Verordnung in den Verkehr gebracht werden oder deren Zweck oder Konstruktion nach dem Inkrafttreten wesentlich verändert wurde.
Sämtliche der genannten EU-Rechtsakte betonen die Notwendigkeit der diskriminierungsfreien Ausgestaltung der Digitalisierung. Wie die digitale Transformation diskriminierungsfrei gestaltet werden kann, regeln das Gesetz über digitale Dienste, das Gesetz über digitale Märkte und der KI-Verordnungsentwurf jedoch nicht, sondern verweisen diesbezüglich auf bestehende EU-Regelungen.

B) Das Antidiskriminierungsrecht

Das Verbot der Diskriminierung in Beschäftigung und Beruf ist in bisher drei Richtlinien geregelt: Die neugefasste Gleichbehandlungsrichtlinie,18 die Diskriminierung aufgrund des Geschlechts verbietet, die Antirassismusrichtlinie,19 die Diskriminierung aus Gründen der ethnischen Herkunft verbietet, und die Rahmenrichtlinie,20 welche die Anzahl der geschützten Merkmale auf Religion oder Weltanschauung, Behinderung, Alter und sexuelle Ausrichtung ausweitet.
Art. 14 neugefasste Gleichbehandlungsrichtlinie, Art. 3 Antirassismusrichtlinie und Art. 3 Rahmenrichtlinie verbieten Diskriminierung im öffentlichen und privaten Sektor in Bezug auf „die Bedingungen – einschließlich Auswahlkriterien und Einstellungsbedingungen – für den Zugang zur Beschäftigung“. Der EuGH hat wiederholt festgestellt, dass der „Zugang zur Beschäftigung“ weit auszulegen ist.21 Stellenbewerbungen, Stellenanzeigen sowie der gesamte Einstellungsprozess fallen dementsprechend in den Anwendungsbereich der jeweiligen Richtlinien.22 Die Vorschriften über Beschäftigung und Beruf gelten demnach auch für Stellenanzeigen – unabhängig davon, ob sie offline oder online, mit oder ohne algorithmische Hilfe, veröffentlicht werden.

1.) Unmittelbare Diskriminierung
Eine unmittelbare Diskriminierung bezeichnet „eine Situation, in der eine Person aufgrund [eines geschützten Merkmales] eine weniger günstige Behandlung erfährt, als eine andere Person in einer vergleichbaren Situation erfährt, erfahren hat oder erfahren würde“.23 Es gibt lediglich zwei Ausnahmen vom Verbot der unmittelbaren Diskriminierung: Erstens, wenn ein Merkmal, das mit einem geschützten Merkmal zusammenhängt (nicht das Merkmal selbst), eine wesentliche und entscheidende berufliche Anforderung für die betreffende Stelle darstellt (z.B. wenn ein männlicher Schauspieler im Alter von 45-55 Jahren für eine bestimmte Rolle in einem Theaterstück gesucht wird); und zweitens die Regelung zu positiven Maßnahmen, durch die Personen mit einem geschützten Merkmal, sofern sie unterrepräsentiert sind, besondere Vorteile erhalten, um bestehende Nachteile im Arbeitsumfeld auszugleichen (z.B. Quoten).

2.) Mittelbare Diskriminierung
Eine mittelbare Diskriminierung bezeichnet „eine Situation, in der dem Anschein nach neutrale Vorschriften, Kriterien oder Verfahren Personen [mit einem geschützten Merkmal] in besonderer Weise gegenüber Personen [ohne diesem Merkmal] benachteiligen können, es sei denn, die betreffenden Vorschriften, Kriterien oder Verfahren sind durch ein rechtmäßiges Ziel sachlich gerechtfertigt und die Mittel sind zur Erreichung dieses Ziels angemessen und erforderlich“.24 Ausreichend ist, dass die betreffende Bestimmung eine nachteilige Wirkung haben kann.25 Eine mittelbare Diskriminierung kann gerechtfertigt sein, wenn mit der fraglichen Maßnahme ein rechtmäßiges Ziel verfolgt wird und die Mittel zur Erreichung dieses Ziels angemessen und erforderlich sind. Finanzielle und wirtschaftliche Ziele alleine werden im Allgemeinen nicht als ausreichend angesehen, um eine unterschiedliche Behandlung zu rechtfertigen.26

3.) Diskriminierung durch Assoziierung
Diskriminierung durch Assoziierung bezieht sich auf die Benachteiligung einer Person aufgrund des Merkmales einer Gruppe oder Person, mit der sie assoziiert wird. Das bedeutet, dass das Verbot der Diskriminierung aus einem geschützten Grund nicht nur für Personen gilt, die das geschützte Merkmal besitzen, sondern auch für Personen, die diskriminiert werden, weil sie mit einer Person oder Personen in Verbindung gebracht werden, die ein geschütztes Merkmal besitzen (z.B. wenn eine Arbeitnehmerin wegen der Behinderung ihres Kindes benachteiligt wird). Der EuGH hat klargestellt, dass das Antidiskriminierungsrecht sowohl vor unmittelbarer als auch vor mittelbarer Diskriminierung durch Assoziierung schützt.27
Im Allgemeinen ist festzuhalten: Unabhängig davon, ob ein algorithmisches Tool bei der Einstellungsfrage zur Hilfe gezogen wird oder nicht, ist derdie Arbeitgeberin dafür verantwortlich, wenn eine Nichteinstellung auf einer Diskriminierung basiert. Zu beachten ist allerdings, dass das unionsrechtliche Antidiskriminierungsrecht nur für (zukünftige) Arbeitgeber*innen gilt, nicht aber für jene Unternehmen, die Stellenanzeigen offline (z.B. Zeitungen) oder online (z.B. Jobplattformen und soziale Medien) veröffentlichen.28 Die Veröffentlichung einer Stellenanzeige in einer Zeitung oder online könnte jedoch als Dienstleistung für Arbeitssuchende betrachtet werden und könnte somit unter das Verbot der Diskriminierung im Bereich öffentlich angebotener Güter und Dienstleistungen fallen (Art. 3 Abs. 1 lit h Antirassismusrichtlinie und Art. 1 Gender-Güter-Dienstleistungsrichtlinie29 ). Der unionsrechtliche Diskriminierungsschutz ist hier allerdings auf die Merkmale „Geschlecht“ und „ethnische Zugehörigkeit“ beschränkt.

III. Das Medium ändert sich – die Diskriminierung bleibt gleich?

A) Unverändert: Sprache kann diskriminieren

Ob online oder offline, weder der Text einer Stellenanzeige noch allenfalls verwendete Bilder dürfen unmittelbar oder mittelbar diskriminierend sein. Wenn der Wortlaut einer Stellenanzeige darauf hindeutet, dass eine bestimmte Stelle nur für Bewerberinnen eines bestimmten Geschlechts, einer bestimmten ethnischen Herkunft oder einer bestimmten Altersgruppe offen ist oder auf andere geschützte Merkmale beschränkt ist, handelt es sich (abseits der zulässigen Ausnahmen) um einen Fall von unmittelbarer Diskriminierung. Die gleiche Sorgfalt ist auch bei der visuellen Ausgestaltung von Anzeigen geboten. D.h. weder sollte das generische Maskulinum verwendet werden, noch sollten Bilder für gewünschte Kandidatinnen eine homogene männliche Belegschaft abbilden. Ebenso verboten sind mittelbare Diskriminierungen. Wenn beispielsweise die Eignung von Bewerber*innen von einer Körpergröße von mindestens 1,70 Meter abhängig gemacht wird, kann dies eine mittelbare Diskriminierung von Frauen darstellen, da Frauen im Allgemeinen kleiner sind als Männer.30 Eine mittelbare Diskriminierung kann sich etwa auch aus Stellenanzeigen ergeben, in denen „Personen mit Militärerfahrung“ gesucht werden, wodurch Frauen benachteiligt werden könnten, wenn Männer im Militärdienst überrepräsentiert sind.31

B) Neu: Diskriminierung wird effektiver

1.) Daten und Bias
Algorithmen, die errechnen, wem welche Stellenanzeigen gezeigt werden, funktionieren auf Grundlage von Daten. Zumeist wird ein Algorithmus anfänglich mit einer großen Menge an Daten (z.B. von früheren erfolgreichen Bewerberinnen) trainiert. Diese Daten werden statistisch analysiert, um Muster in den Datensätzen zu finden (welche Merkmale weisen alle bisher erfolgreichen Bewerberinnen auf). Diese Muster können dann wiederum verwendet werden, um auf neue Dateneingaben übertragen zu werden.32 Die Daten sind somit eine entscheidende Komponente eines Algorithmus, sie sind allerdings auch die Ursache von Bias (und in weiterer Folge u.U. auch Diskriminierung).
Bias bezeichnet allgemein eine Voreingenommenheit.33 Hierbei handelt es sich meist um eine Bevorzugung, Benachteiligung, Verzerrung oder anderweitige Differenzierung von Personen oder Eigenschaften. Bias kann erwünscht oder unerwünscht sein. Bias im Sinne einer Differenzierung ist für das ordnungsgemäße Funktionieren eines Algorithmus erforderlich.34 Kann der Algorithmus nicht zwischen relevanten und irrelevanten Eingabedaten unterscheiden, ist er nutzlos.35 Unerwünschte Differenzierungen von Algorithmen, oftmals in Form einer Bevorzugung, Benachteiligung oder Verzerrung, stellen hingegen eine signifikante Herausforderung dar. Meist wird von dieser unerwünschten Art von Bias gesprochen, wenn auf das Problem von Bias in Algorithmen hingewiesen wird. So auch im Folgenden. Im Grunde kann ein Algorithmus auf zwei Wegen Bias formen: Zum einen durch die (Trainings-)Daten und zum anderen durch das Modell selbst.36

a) Wo kommt der Bias her?
Während die algorithmische Aufbereitung neu ist, ist der Bias es nicht bzw. nicht immer. Eine hilfreiche – aus den Computerwissenschaften für die Topologie des Antidiskriminierungsrechts nutzbar gemachte – Einteilung von Bias nimmt Lopez vor:37 Sie unterteilt Bias in rein technischen, soziotechnischen und gesellschaftlichen Bias.38 In den rein technischen Bias fällt alles, was einem technischen Fehler gleicht, eine Fehlmessung oder eine Fehlkonzeption ist. Hier wird also etwas falsch in den Daten oder vom System abgebildet. Auch Fehler, die aus der Notwendigkeit zur Simplifikation der Daten entstanden sind, und Bias, der sich durch Programmierentscheidungen ergibt, lassen sich hier ansiedeln.39 Bias kann sich auch durch Generalisierungsmaßnahmen formen.40 Der soziotechnische Bias ergibt sich durch einen Fehler in der Datenlage gegenüber der Realität. Hierbei ist die Datenlage nicht repräsentativ für die Realität und vermittelt dem Algorithmus ein verzerrtes Bild (z.B. wenn die Datenlage bestimmte Personengruppen nicht oder unterrepräsentiert). Der Algorithmus kann aber nur auf Grundlage dessen entscheiden, was ihm die Daten vermitteln und reproduziert so (falsche) Ungleichheiten, die aus den Daten stammen. Hier kann auch der Bias eingeordnet werden, der durch die Interaktionen von Nutzer*innen ins System einfließt.41 Der gesellschaftliche Bias ist der, den es schon vor der Verwendung des Systems gab und der in der Gesellschaft tatsächlich vorhanden ist. Daten, die einen gesellschaftlichen Bias aufweisen, sind also nicht falsch oder verzerrt, sondern bilden tatsächliche strukturelle Ungleichheiten ab. Jeder Bias kann, wenn er im Zusammenhang mit geschützten Merkmalen aufkommt, zu einer Diskriminierung führen.
Die Unterteilung verdeutlich, wie Bias in die Daten kommt: Zum einen kann es tatsächlich an der technischen Umsetzung und Fehlern liegen, zum anderen ist der Bias aber einfach schon da. Letztlich kann Bias auch durch das Zusammenspiel beider Elemente entstehen.

b) Was passiert mit dem Bias in Algorithmen?
Bias in Algorithmen hat Konsequenzen: Egal welche Art von Bias im System ist, sobald er einmal im System ist, kann er sich verbreiten. Der Bias kann reproduziert werden, verstärkt werden oder es kann auch neuer Bias entstehen.42 Bereits vorhandener Bias wird immer weiter auf neue Fälle übertragen. Ist ein Algorithmus zum Beispiel mit zu wenig Abbildungen von Women of Colour trainiert, wird er auch zukünftig Women of Colour nicht als Personen erkennen.43 Verstärkt wird der Bias im Algorithmus dann, wenn Entscheidungen, die schon einen Bias aufweisen, wiederum als Grundlage für neue Entscheidungen verwendet werden und die Datenlage weiter verzerren. Neuer Bias entsteht oft dann, wenn Korrelationen zu Kausalitäten gemacht werden. Schlussfolgerungen werden dann aus teilweise zufälligen oder irrelevanten Wechselbeziehungen geschlossen. Findet der Algorithmus in der Datenlage eine Korrelation zwischen der Dauer des Arbeitsweges und erfolgreichen Mitarbeiter*innen, ergibt sich ein Bias gegen Jobsuchende, die weiter weg wohnen.44
Anhand von Targeted Advertising von Stellenanzeigen lässt sich gut nachvollziehen, wie Bias zu Diskriminierung werden kann.

2.) Fallbeispiel: Targeted Advertising
Das gezielte Anzeigen von Stellenanzeigen durch Targeted Advertising zeigt beispielhaft, wie sich der Bias im Algorithmus äußert. Hiermit wird auch das Diskriminierungspotenzial deutlich. Während der Wortlaut der Anzeige weiterhin alle schon dagewesenen Risiken für Diskriminierung beinhaltet, wird beim Targeted Advertising noch zusätzlich die Zielgruppe eingeschränkt. Das Targeting bietet verschiedene Möglichkeiten, die Zielgruppe von Stellenanzeigen einzugrenzen: erstens durch den bewussten Ein- oder Ausschluss einer Person oder Personengruppe (Audience Selection) und zweitens durch eine Kosten-Nutzen-Rechnung zur Optimierung der Anzeigenschaltung (User-Ad-Matching).45
Diverse Tools, wie Facebook oder LinkedIn, bieten unterschiedliche Formen der Zielgruppenauswahl an. Es können Attribute oder personenbezogene Daten gewählt werden, nach denen gefiltert werden soll. Es kann aber auch eine Gruppe definiert werden, die als Vorlage für gewünschte Kandidatinnen dienen soll. Das Risiko einer Diskriminierung ist auch gegeben, wenn die Zielgruppe auf der Grundlage von Interessen (z.B. Vorlieben für bestimmte Nachrichtenseiten, Zeitschriften oder bestimmte Hobbys) ausgewählt wird.46 Wird also nur nach Nutzerinnen gesucht, die sich für Boxen und Andrew Tate interessieren, wird die Stellenanzeige vermutlich überwiegend Männern geschaltet werden. Umgekehrt könnte man gezielt Nutzerinnen ausschließen, die Seiten über feministische Themen folgen. Wenn vordergründig neutralen Kriterien Nutzerinnen einer geschützten Gruppe unverhältnismäßig stark ansprechen oder ausschließen, handelt es sich um eine mittelbare Diskriminierung, wenn das jeweilige Merkmal nicht objektiv gerechtfertigt werden kann.
Aber nicht nur die Einstellungen zur Zielgruppenauswahl spielen eine Rolle. Targeted Advertising ist ein kommerziell gesteuertes Unterfangen. Tatsächlich entscheidet ein im Hintergrund laufender algorithmischer „Bieterkrieg“, welche Untergruppe der Zielgruppe nun wirklich die Anzeige (zuerst) sieht. Manche Personengruppen sind „teurer“, d.h. es kostet mehr, ihnen gezielte Werbung anzeigen zu lassen.47 Frauen zum Beispiel sind teurer als Männer.48 Wenn das entsprechende Budget also nicht so groß ist, kann das dazu führen, dass die geschaltete Stellenanzeige weniger Frauen angezeigt wird als Männern. Daraus kann sich ein erhöhtes Potenzial für mittelbare Diskriminierung ergeben. Außerdem kommt es auch darauf an, welche anderen Gebote beteiligt sind. Die Logik hinter den algorithmischen Berechnungen im Hintergrund sind für die Bieter*innen nicht einsehbar (Black Box Effekt). Daher sind selbst die besten Absichten, Diskriminierung zu verhindern, nicht immer ausreichend.49
Zusammengefasst lässt sich sagen, dass sich durch den Einsatz von Targeted Advertising der Zeitpunkt der Diskriminierung verlagert hat: Benachteiligungen finden nicht (erst) bei der Einladung zu einem Bewerbungsgespräch oder im Kontext von Gehaltsverhandlungen statt. Targeted Advertising kann den Zugang zum Arbeitsmarkt vielmehr bereits dadurch effektiv behindern, dass Stellensuchende bestimmte Stellenanzeigen erst gar nicht zu Gesicht bekommen.

IV. Erste Hilfe

A) Rechtsdurchsetzung

1.) Beweislastumkehr
Wer von einer Diskriminierung bei der Arbeitssuche betroffen ist (und davon weiß), kann den Rechtsweg wählen. Nach dem deutschen Allgemeinen Gleichbehandlungsgesetz (AGG)50 besteht bei Diskriminierungsfällen in Verbindung mit der Einstellung ein Anspruch auf Entschädigung. Ein Anspruch auf Einstellung besteht dagegen nicht. Der Rechtsweg ist allerdings mit einigen Hürden verbunden, u.a. tragen die Klagenden das Prozessrisiko. Überdies scheitern viele Klagen an der Glaubhaftmachung der Diskriminierung.
Von mehreren Wissenschaftler*innen51 und kürzlich auch von der unabhängigen Bundesbeauftragten für Antidiskriminierung in Deutschland52 wird daher eine Erleichterung der Beweislast in gerichtlichen Diskriminierungsfällen gefordert. Sämtliche EU Richtlinien im Antidiskriminierungsrecht sehen zwar eine Verschiebung der Beweislast vor: Demnach müssen Betroffene eine Diskriminierung nur glaubhaft machen, also einen prima facie Beweis erbringen, während es dann den Beklagten obliegt zu beweisen, dass keine Diskriminierung stattgefunden hat. Damit sollte dem Problem Rechnung getragen werden, dass der Nachweis einer Diskriminierung für die Betroffenen wegen fehlender Nähe zum potenziellen Beweis nur schwer zu erbringen ist. Das in Diskriminierungsfällen inhärente Machtungleichgewicht löst sich dadurch allerdings schon bei Offline-Diskriminierung nicht. Wenn allerdings auch noch die algorithmische Ebene und die ihr eigene Opazität, also die mangelnde Transparenz und Nachvollziehbarkeit dieser Systeme, mitgedacht wird, wird bereits die Erbringung eines prima facie Beweises zur (unüberwindbaren) Herausforderung.53 Hinzukommt, dass der EuGH bislang einen Anspruch auf Einsichtnahme in Bewerbungsunterlagen verneint hat.54 Demnach haben abgelehnte Kandidat*innen, auch wenn sie ein diskriminierendes Bewerbungsverfahren vermuten, nicht das Recht, weitere Informationen über das Bewerbungsverfahren vom Unternehmen einzufordern. Der EuGH schließt allerdings nicht aus, dass die Verweigerung jeglichen Zugangs zu Informationen als ein Faktor im Etablieren eines prima facie Beweises in Diskriminierungsfällen angesehen werden kann.55 Im Zusammenhang mit algorithmisch unterstützten Bewerbungsentscheidungen könnte die Weigerung, Informationen über die Funktionsweise und/oder Datengrundlage des Algorithmus preiszugeben, als solch ein Faktor interpretiert werden.
Im AGG ist die unionsrechtliche Beweislasterleichterung umgesetzt worden. Eine günstigere Regelung ist allerdings durch den Richtliniencharakter der Vorschrift möglich. Vor dem Hintergrund der erschwerten Umstände im Umgang mit Diskriminierungsfällen mit algorithmischer Komponente schlägt u.a. die Antidiskriminierungsbeauftragte eine Änderung der Beweislastregel vor.56 Demnach sollte die Beweislast vor Gericht auf die Verantwortlichen der KI-Systemen fallen, da Betroffene keine Kenntnisse über die relevanten Funktionsweise der KI bzw. des Algorithmus haben. Diese Art der Beweislastumkehr findet sich im Übrigen auch im KI-Verordnungsentwurf.57

2.) Verbands- und Musterklagen
In Deutschland besteht keine Möglichkeit einer Verbandsklage im Zusammenhang mit einer Diskriminierung auf Grund des Geschlechts im Arbeitsleben. In anderen Staaten der EU besteht demgegenüber bereits die Möglichkeit für NGO’s, Gewerkschaften oder anderen Institutionen in Diskriminierungsfällen eine Verbandsklage zu erheben.58 Häufig wird das Instrument der Verbandsklage mit einer Funktion als Muster- oder Gruppenklage verbunden. Ganz besonders bei Diskriminierungen in Stellenanzeigen sind solche Klagen essenziell für einen effektiven Rechtschutz. Eine diskriminierende Stellenanzeige oder das diskriminierende zielgerichtete Anzeigen von Stellenanzeigen richtet sich gerade nicht gegen eine Einzelperson, sondern gegen die Gesellschaft als Ganzes. Der Grundsatz der Einzelrechtsverfolgung stellt sich damit als strukturelles Hindernis beim Zugang zum Recht und zur Arbeitswelt dar.59

B) Ausschreibungspflicht

Jede Diskriminierung bei der Bereitstellung von (Online-)Stellenanzeigen ist eine massive Benachteiligung beim Zugang zum Arbeitsmarkt. Ein diskriminierendes Targeted Advertising verhindert nicht nur, dass sich Bewerber*innen auf eine Stelle bewerben, weil sie glauben, dass sie weniger Chancen haben: Vielmehr wird verhindert, dass sie die Stellenanzeige überhaupt sehen.60 Sie sind also gar nicht über das volle Angebot an Stellenanzeigen informiert – im Gegenteil, sie sind, zum Teil explizit durch Ausschluss, daran gehindert es wahrzunehmen. Rechtliche Schritte gegen eine mögliche Diskriminierung werden dadurch fast verunmöglicht, da Arbeitssuchende gar nicht wissen, dass ihnen das volle Stellenangebot (wahrscheinlich) aufgrund eines diskriminierenden Targeting vorenthalten wurde. Zahlreiche Studien weisen darauf hin, dass gerade am Arbeitsmarkt strukturell benachteiligte Gruppen, wie etwa Frauen, Persons of Colour und ältere Personen, beim Einsatz von algorithmischen Systemen in der Arbeitswelt besonders benachteiligt werden.
Bis sich die technischen Möglichkeiten und die gesellschaftlichen Rahmenbedingungen so verändern, dass eine derartige Benachteiligung nicht mehr möglich ist, gibt es für das Problem des diskriminierenden Targeted Advertising von Stellenanzeigen de lege ferenda eine technisch unkomplizierte und gesellschaftlich lohnende Sofortlösung: eine Ausschreibungspflicht für alle Stellenanzeigen.61 Eine Ausschreibungspflicht sorgt dafür, dass alle Stellenanzeigen für jede arbeitssuchende Person zugänglich sind, zum Beispiel auf einer nationalen oder besser einer EU-weiten Webseite. Die EURES Webseite der Europäische Arbeitsvermittlung würde sich hier anbieten: ‘EURES Job Portal’.62 Für Unternehmen, die größtenteils ihre Anzeigen ohnehin online schalten, ist der Mehraufwand minimal. Der Nutzen für (marginalisierte) Arbeitssuchende wäre allerdings groß: Ein diskriminierungsfreier Zugang zu Stellenanzeigen.

V. Fazit

Der Digitalisierungsprozess hat den Arbeitsmarkt schon jetzt fest im Griff. Vor allem die Jobsuche findet heutzutage fast ausschließlich online statt. Stellenanzeigen werden online entweder auf Unternehmenswebseiten hochgeladen oder über online Jobportale und soziale Medien ausgeschrieben. Letzteres geht oftmals einher mit der Verwendung von Targeted Advertising zum gezielten Verschicken an die vermeintlich „passendsten“ Personen. Das birgt altes und neues sowie sichtbares und unsichtbares Diskriminierungspotenzial. Diskriminierende Stellenanzeigen sind EU-rechtlich unzulässig. Die Durchsetzung ist allerdings mit großen Herausforderungen verbunden, die gerade durch die algorithmische Komponente verstärkt und nahezu unüberwindbar werden. Einige rechtliche Instrumente – sowohl auf nationaler wie auch auf EU-Ebene – könnten hier Abhilfe schaffen. Es braucht eine Beweislastumkehr und die Möglichkeit, Musterklagen einzubringen, um das Antidiskriminierungsrecht effektiv gegen strukturelle Diskriminierungen einzusetzen. Außerdem bedarf es einer Ausschreibungspflicht für Stellenanzeigen auf einer nationalen oder EU-weiten Stellenbörse, um den diskriminierungsfreien Zugang zu Beruf und Beschäftigung zu fördern und gezielt das Diskriminierungsrisiko in Verbindung mit dem Targeted Advertising zu adressieren.

Hinweis der Redaktion

Die Digitale Transformation hat eine Geschlechterdimension, die in der rechtspolitischen Diskussion immer noch zu wenig benannt wird. Wie im vorstehenden Artikel von Grosz/Greif für den online-Stellenmarkt beschrieben, ist insbesondere das „Targeting auf der Basis abgeleiteter Daten“ in hohem Maße diskriminierungslastig. Der Deutsche Juristinnenbund e.V. (djb) hat auf einen weiteren diskriminierenden und demokratiegefährdenden Aspekt dieses Targetings hingewiesen mit seiner Stellungnahme (23-23 vom 02.02.2023) zu politischer Werbung im Netz, die wir nachstehend abdrucken.
Aufgrund der intransparenten Machtverhältnisse in den von den großen online-Plattformen dominierten Öffentlichkeiten besteht kaum die Möglichkeit, diesen Diskriminierungsformen durchsetzungsstark entgegenzutreten. Die Beobachtung des Nutzer*innenverhaltens und darauf aufsetzender (Online)-Ansprache ist in der gelebten Praxis dabei auch datenschutzrechtlich extrem problematisch. Der Wunsch nach digitalen Infrastrukturen, die staatlicherseits so geschaffen werden, dass eine demokratische Öffentlichkeit Vertrauen aufbauen kann und Teilhabe auch für Frauen und marginalisierte Personen sichergestellt ist, klingt im Zuge der momentanen durch Kriege und Naturkatastrophen beherrschten Realität mehr denn je wie eine unerreichbare Utopie.
Auf die vielfachen Risiken für die Geschlechter- und Teilhabegerechtigkeit in einer digitalisierten Gesellschaft und das nach wie vor fehlende politische Bewusstsein für diese Risiken verweisen auch die djb-Stellungnahmen zur aktuellen Digitalstrategie der Bundesregierung (Stellungnahme 22-22 vom 30.08.2022) und zu der kurz vor ihrer Verabschiedung stehenden EU-KI-Verordnung (Stellungnahme 21-14 vom 21.04.2021). Alle Stellungnahmen können auf der Website des djb www.djb.de im Volltext abgerufen werden. Siehe zur Problematik auch den 3. Gleichstellungsbericht der Bundesregierung „Digitalisierung geschlechtergerecht gestalten“ (www.dritter-gleichstellungsbericht.de/) zusammenfassend analysiert von Anke Stelkens: „Digitalisierung geschlechtergerecht gestalten“ – Zusammenfassende Analyse des Gutachtens zum 3. Gleichstellungsbericht der Bundesregierung, STREIT 2/2021, S. 88-96.

  1. Unter KI bzw KI-Systeme versteht man automatische Entscheidungssysteme, die mit Hilfe großer Datenmengen selbstständig den besten Weg zu einem vom Menschen festgelegten Ziel finden kann und analysieren wie ihr bisheriges Handeln die Umwelt beeinflusst. Genauer in: Hochrangige Expertengruppe für KI (HEG-KI), ‘Ethik-Leitlinien für eine vertrauenswürdige KI’ (04.2019).
  2. Unter einem Algorithmus versteht man ein Programm, dass durch eine Schritt-für-Schritt-Anleitung ein konkretes mathematisches Problem strukturiert lösen kann. Je nach Programmierung und Entwicklungsstand können determinierte Algorithmen von lernenden (bzw. „intelligenten“) Algorithmen unterschieden werden. Erstere lösen Problem nach vorhergegeben Schritten. In diesem Beitrag verstehen wir unter Algorithmen zweitere, lernende Algorithmen, also solche, die mit Hilfe großer Datenmengen nach Muster suchen können und Handlungsweisen selbstständig anpassen können. Definition nach Antje Ungern-Sternberg, ‘§ 28 Diskriminierungsschutz bei algorithmenbasierten Entscheidungen’ in Anna K. Mangold und Mehrdad Payandeh (Hrsg.), Handbuch Antidiskriminierungsrecht: Strukturen, Rechtsfiguren und Konzepte (Mohr Siebeck 2022), 1134.
  3. Sachverständigenkommission für den Dritten Gleichstellungsbericht der Bundesregierung, ‘Digitalisierung geschlechtergerecht gestalten: Gutachten für den Dritten Gleichstellungsbericht der Bundesregierung’ (2021).
  4. Hays, Welche Rekrutierungskanäle nutzen Sie zur Gewinnung neuer Mitarbeiter? Statista, 2023 <https://de.statista.com/statistik/daten/studie/682313/umfrage/umfrage-unter-fuehrungskraeften-zur-nutzung-verschiedener-rekrutierungskanaele/> (letzter Besuch 30.08.2023).
  5. David G. Allen, Raj V. Mahto und Robert F. Otondo, ‘Web-based recruitment: effects of information, organizational brand, and attitudes toward a Web site on applicant attraction’ (2007) 92(6) The Journal of Applied Psychology 1696; Anna B. Holm, ‘e-Recruiting’ in Tanya Bondarouk und Sandra Fisher (Hrsg.), Encyclopedia of Electronic HRM (De Gruyter 2020).
  6. Allen, Mahto und Otondo (Fn. 5).
  7. Amit Datta et al, ‘Discrimination in Online Advertising: A Multidisciplinary Inquiry’ (2018) 81 Proceedings of Machine Learning Research 1.
  8. Bias bezeichnet allgemein Voreingenommenheit. Hierbei handelt es sich meist um eine Bevorzugung, Benachteiligung, Verzerrung oder anderweitige Differenzierung von Personen oder Eigenschaften. (Näheres siehe unten Absatz B.1. „Daten und Bias“).
  9. Anja Lambrecht und Catherine Tucker, ‘Algorithmic Bias? An Empirical Study of Apparent Gender-Based Discrimination in the Display of STEM Career Ads’ (2019) 65(7) Management Science 2966.
  10. Muhammad Ali et al, ‘Discrimination through optimization: How Facebook’s ad delivery can lead to skewed outcomes’ (2019) 3(CSCW) Proc ACM Hum-Comput Interact 1. Im Übrigen, stellte die Studie auch fest, dass Stellenangebote im Bereich Taxiunternehmen zu 75% an Schwarze Nutzer*innen gingen. Es werden demnach nicht nur Geschlechterstereotypen weiterverbreitet, sondern auch rassistische Stereotypen weiterpropagiert.
  11. Siehe beispielhaft: Amit Datta, Michael C. Tschantz und Anupam Datta, ‘Automated Experiments on Ad Privacy Settings: A Tale of Opacity, Choice, and Discrimination’ (2015); United Nations Development Programme, ‘New threats to human security in the Anthropocene: Demanding greater solidarity’ (2022 Special Report, New York, NY 2022) <https://hs.hdr.undp.org/pdf/srhs2022.pdf> (letzter Besuch 20.09.2023).
  12. Pauline Kim, ‘Discrimination in Online Employment Recruiting’ (2018) Legal Studies Research Paper Series.
  13. Verordnung (EU) 2022/2065 des Europäischen Parlaments und des Rates vom 19.10.2022 über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG (Gesetz über digitale Dienste).
  14. Verordnung (EU) 2022/1925 des Europäischen Parlaments und des Rates vom 14.09.2022 über bestreitbare und faire Märkte im digitalen Sektor und zur Änderung der Richtlinien (EU) 2019/1937 und (EU) 2020/1828 (Gesetz über digitale Märkte).
  15. Digital Markets Act: Commission designates six gatekeepers, Europäische Kommission, 06.09.2023 <https://ec.europa.eu/commission/presscorner/detail/en/ip_23_4328> (letzter Besuch 20.09.2023).
  16. Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates vom 21.04.2021 zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (Gesetz über Künstliche Intelligenz) und zur Abänderung bestimmter Rechtsakte der Union (COM/2021/206 final).
  17. Abänderungen des Europäischen Parlaments vom 14.06.2023 zu dem Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD)).
  18. Richtlinie 2006/54/EG des Europäischen Parlaments und des Rates vom 05.07.2006 zur Verwirklichung des Grundsatzes der Chancengleichheit und Gleichbehandlung von Männern und Frauen in Arbeits- und Beschäftigungsfragen (Neufassung).
  19. Richtlinie 2000/43/EG des Rates vom 29.06.2000 zur Anwendung des Gleichbehandlungsgrundsatzes ohne Unterschied der Rasse oder der ethnischen Herkunft.
  20. Richtlinie 2000/78/EG des Rates vom 27.11.2000 zur Festlegung eines allgemeinen Rahmens für die Verwirklichung der Gleichbehandlung in Beschäftigung und Beruf.
  21. EuGH Feryn (2008) C-54/07, paras 23-25 und 28; EuGH Asociaţia Accept (2013) C-81/12, paras 44-45; EuGH Associazione Avvocatura per i diritti LGBTI (2020) C-507/18, paras 39-40 und 58. Siehe auch in Paul Post und Rikki Holtmaat, ‘A false Start: Discrimination in Job Advertisements’ (2014) European Gender Equality Law Review, 13; Raphaële Xenidis und Linda Senden, ‘EU non-discrimination law in the era of artificial intelligence: Mapping the challenges of algorithmic discrimination’ in Ulf Bernitz et al (Hrsg.), General Principles of EU Law and the EU Digital Order (Wolters Kluwer Law International 2020), 13.
  22. Z.B. in Bezug auf Geschlechterdiskriminierung, vgl. EuGH Kalliri (2017) C-409/16, paras 21-24; in Bezug auf Altersdiskriminierung, vgl. EuGH Wolf (2010) C-229/08, paras 26-27.
  23. Z.B. in Art. 2 Abs. 1 lit a neugefassten Gleichbehandlungsrichtlinie.
  24. Z.B. in Art. 2 Abs. 1 lit b neugefassten Gleichbehandlungsrichtlinie.
  25. EuGH John O’Flynn v Adjudication Officer (1996) C-237/94, para 21.
  26. EuGH Defrenne III v Sabena (1978) 149/77; EuGH Schönheit und Becker (2003) C-4/02 und C-05/02.
  27. EuGH Coleman (2008) C-303/06; EuGH CHEZ Razpredelenie Bulgaria (2015) C-83/14.
  28. Post und Holtmaat (Fn. 21), 14.
  29. Richtlinie 2004/113/EG des Rates vom 13.12.2004 zur Verwirklichung des Grundsatzes der Gleichbehandlung von Männern und Frauen beim Zugang zu und bei der Versorgung mit Gütern und Dienstleistungen.
  30. EuGH Kalliri (2017) C-409/16, paras 32 und 44.
  31. Post und Holtmaat (Fn. 21), 14.
  32. Paola Lopez, ‘Diskriminierung durch Data Bias Künstliche Intelligenz kann soziale Ungleichheiten verstärken’ (2021) 171 WZB Mitteilungen 26.
  33. Boris Dzida und Naemi Groh, ‘Diskriminierung nach dem AGG beim Einsatz von Algorithmen im Bewerbungsverfahren’ (2018) 71(27) NJW 1917.
  34. FRA, ‘Bias in algorithms: Artificial intelligence and discrimination’ (2022), 23.
  35. Solon Barocas und Andrew D. Selbst, ‘Big Data’s Disparate Impact’ (2016) 104 California Law Review 671, 677.
  36. Dzida und Groh (Fn. 32).
  37. Paola Lopez, ‘Bias does not equal bias: a socio-technical typology of bias in data-based algorithmic systems’ (2021) 10(4) Internet Policy Review 139.
  38. Ebenda.
  39. Barocas und Selbst (Fn 35).
  40. Peter Burgstaller, Eckehard Hermann und Harald Lampesberger, Künstliche Intelligenz: Rechtliches und technisches Grundwissen (Praxishandbuch, MANZ 2019), 33.
  41. Korbinian Hartl, Suchmaschinen, Algorithmen und Meinungsmacht (Springer 2017), 52.
  42. Siehe in Janneke Gerards und Frederik Zuiderveen Borgesius, ‘Protected Grounds and the System of Non-Discrimination Law in the Context of Algorithmic Decision-Making and Artificial Intelligence’ (2020) SSRN Journal.
  43. Joy Buolamwini und Timnit Gebru, ‘Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification’ (2018) 81 Proceedings of Machine Learning Research 1.
  44. Ebenda.
  45. Athanasios Andreou und others, ‘Investigating Ad Transparency Mechanisms in Social Media: A Case Study of Facebook’s Explanations’ (2018) NDSS – Network and Distributed System Security Symposium 1.
  46. Andreou et al (Fn. 45); Giridhari Venkatadri et al, ‘Privacy Risks with Facebook’s PII-Based Targeting: Auditing a Data Broker’s Advertising Interface’ (2018 IEEE Symposium on Security and Privacy 20.05.2018 – 24.05.2018).
  47. Lambrecht und Tucker (Fn. 8), 2976.
  48. Ebenda.
  49. Ebenda.
  50. AGG vom 14.08.2006 (BGBl I, 1897), zuletzt geändert durch Art. 1 des Gesetzes vom 23.05.2022 (BGBl I, 768).
  51. Olaf Muthorst, Das Beweisverbot: Grundlegung und Konkretisierung rechtlicher Grenzen der Beweiserhebung und der Beweisverwertung im Zivil-, Straf- und Verwaltungsverfahren. (Dissertationsschrift, Mohr Siebeck 2009); Carsten Orwat, ‘Diskriminierungsrisiken durch Verwendung von Algorithmen’ (Studie, 2019); Indra Spiecker gen. Döhmann und Emanuel V Towfigh, ‘Automatisch benachteiligt: Das Allgemeine Gleichbehandlungsgesetz und der Schutz vor Diskriminierung durch algorithmische Entscheidungssysteme’ (Rechtsgutachten im Auftrag der Antidiskiminierungsstelle des Bundes, 04.2023); Ungern-Sternberg (Fn. 2).
  52. Antidiskriminierungsbeauftragte will Schutz vor digitaler Diskriminierung ausweiten, 30.08.2023 <https://www.antidiskriminierungsstelle.de/SharedDocs/aktuelles/DE/2023/20230830_Rechtsgutachten_KI.html> (letzter Besuch 20.09.2023).
  53. Spiecker gen. Döhmann und Towfigh (Fn. 51).
  54. EuGH Kelly (2011) C-104/10, para 38 und EuGH Meister (2012) C-415/10, para 46.
  55. Meister C-415/10 (Fn. 54), para 47.
  56. Siehe Antidiskriminierungsbeauftragte will Schutz vor digitaler Diskriminierung ausweiten (Fn. 52).
  57. Spiecker gen. Döhmann und Towfigh (Fn. 51).
  58. Post und Holtmaat (Fn. 21)
  59. Post und Holtmaat (Fn. 21); Spiecker gen. Döhmann und Towfigh (Fn. 51).
  60. Kim (Fn. 12).
  61. Grundlegend dazu Elisabeth Greif und Tessa Grosz, ‘To see, or not to see: Online job advertisement and EU non-discrimination law’ (2023) 14(3) European Labour Law Journal 376.
  62. <https://ec.europa.eu/eures/portal/jv-se/home?pageCode=find_a_job&amp;lang=de> (letzter Besuch 20.09.2023).