STREIT 4/2025
S. 147-163
Geschlechtergerechte Daten- und Digitalpolitik
A. Einleitung
Der digitale Transformationsprozess, in dem sich die Gesellschaft seit über 25 Jahren befindet, bestimmt mittlerweile den Alltag aller Menschen. Nahezu alle Lebensbereiche von Familie über Freizeit bis zur Erwerbsarbeit sind digitaltechnisch in Daten erfasst und werden zunehmend durch Algorithmen gesteuert. Der Zugang zu existentiellen Infrastrukturen wird zukünftig vermehrt über digitale Systeme erfolgen. Der Koalitionsvertrag der aktuellen Bundesregierung1 enthält ein umfassendes Bekenntnis zur Digitalisierung. Mittels Digitalisierung will die Koalition in allen staatlichen Bereichen „Effizienzpotenziale heben“2 sowie digitale Bürokratieerleichterungen insbesondere auch für die Wirtschaft schaffen.3 Ein Zusammenhang zu der an anderer Stelle versprochenen Fortführung der Gleichstellungsstrategie wird nicht hergestellt.4 Es steht zu befürchten, dass Diskriminierung und Gefahren für Frauen5 als Kollateralschaden einer politisch so skizzierten Digitalisierung hingenommen werden.
Berechtigte Kritik der Zivilgesellschaft an der Digitalpolitik richtet sich gegen die politische Vernachlässigung des Gemeinwohls.6
Die Digitalpolitiken seien zu wenig transparent und es fehle an Partizipationsmöglichkeiten für die Zivilgesellschaft. Auffällig ist, dass auch in diesen kritischen zivilgesellschaftlichen Papieren Geschlechtergerechtigkeit nicht explizit auftaucht. Der für den Diskurs gewählte Begriff Gemeinwohl birgt die Gefahr, geschlechtsspezifische Teilhabeungerechtigkeiten verschwinden zu lassen. So wenn das digitale Ehrenamt als eine vorbildhafte Lösung genannt wird, ohne den Gender Gap zu thematisieren.7
Die in höchstem Maß durch digitale Gewalt gefährdete und durch digitale Ausschlusseffekte an der sozialen und demokratischen Teilhabe gehinderte weibliche Mehrheit in der Bevölkerung verschwindet im Diskurs.
Schon seit 2021 liegt mit dem dritten Gleichstellungsbericht „Digitalisierung geschlechtergerecht gestalten“ (3. GlB)8
eine umfassende Analyse zu den Gefahren der digitalen Transformation für die Geschlechtergerechtigkeit vor. Es war bisher stets die Rede von Chancen und Risiken, die die Digitalisierung gleichermaßen biete. Diese Sichtweise wird aktuell überholt von den technischen Entwicklungen massenhafter Datengenerierung und zweckübergreifend einsetzbarer Künstlicher-Intelligenz (KI)-Systeme einer global monopolartig strukturierten privaten Digitalbranche. Wenige Tech-Unternehmen sind mächtig und teilweise finanzstärker als Nationalstaaten geworden und investieren große Kapitalströme in immer neue daten- und marktgetriebene digitale Anwendungen.9
Es muss sich die Aufmerksamkeit jetzt darauf richten, welche Risiken sich bereits verwirklicht haben bzw. wo sich Gefahren konkretisieren. Dabei ist es unverzichtbar, die besondere Geschlechterrelevanz digitaler Technologie in den Blick zu nehmen.
Der Artikel wirft einen ganzheitlichen Blick auf geschlechterpolitische Leerstellen der Digitalisierung. Der technologiebasierten Ausgrenzung von Frauen im Bereich digitale Transformation kommt Indikatorfunktion für strukturelle Probleme und gesellschaftliche Fehlentwicklungen zu. Ob eine geschlechtergerechte Gesellschaft in Zeiten globaler Digitalisierung erreicht werden kann oder sich digitale Diskriminierungsphänomene wie der Digital Gender Gap (B.) und der Gender Data Gap (D.), die verschiedenen Phänomene digitaler Gewalt (C.) und problematische KI-Entwicklungen (E.) weiter verschärfen, hängt entscheidend von einer guten Digital Governance10 ab.
B. Der Digital Gender Gap
I. Struktur
Der Digital Gender Gap wurde 2020 erstmals von der Initiative D2111 als strukturelle Barriere für Frauen und Mädchen benannt. Strukturelle Barriere meint geschlechtsbezogene Unterschiede beim sog. Digitalisierungsgrad. Frauen erreichten einen deutlich geringeren Digitalisierungsgrad als Männer.12 Der Digitalisierungsgrad wurde dafür untersucht anhand der Betrachtung von vier Faktoren:
Zugang zu Digitalisierung (Geräteausstattung, Internet),
Nutzungsdauer digitaler Anwendungen,
digitale Anwendungskompetenz,
Aufgeschlossenheit für digitale Anwendungen.
Um das Ausmaß dieses Gender Gaps angemessen zu beschreiben und Gegenmaßnahmen ergreifen zu können, hat bereits der 3. GLB gefordert,13 die bisherigen Messfaktoren noch zu erweitern um die Faktoren
Souveränität bei Zeitressourcen,
Souveränität bei Raumressourcen,
Ausmaß informationeller Selbstbestimmung.
Denn die Verfügbarkeit von Ressourcen bzw. das Ausmaß von Selbstbestimmung sei neben den rein technikbezogenen Messfaktoren ein Hauptgrund für einen niedrigen Digitalisierungsgrad von Frauen und müsse noch im Zusammenhang mit den anderen Faktoren erfasst und bewertet werden. Immer noch nicht berücksichtigt ist dann, dass sich in einer digitalisierten Gesellschaft das Phänomen digitaler Gewalt in hohem Maße geschlechtsspezifisch und sexualisiert gegen Frauen richtet.14 Daher muss eine Untersuchung des Digitalisierungsgrads noch weitergehender auch berücksichtigen den Messfaktor
Ausmaß der Gefährdung durch digitale Gewalt.
Statt von einem Digital Gender Gap wird in vermeintlich genderneutraler Sprache oft nur gesprochen von einem Digital Divide oder Digital Gap. Soweit dabei gruppenspezifisch Barrieren in den Blick geraten (Alter, Behinderung, Klasse bzw. Armut), werden diese politisch sogar adressiert. Der aktuelle Koalitionsvertrag enthält spezielle digitale Bildungsprogramme für Kinder und Jugendliche und ältere Menschen, aber übergeht hier Frauen.15 Ein Bewusstsein für diesen strukturellen Digitalisierungseffekt, der die Hälfte oder sogar mehr als die Hälfte der Bevölkerung quer durch alle Alters- und sozialen Schichten hindurch erstmal negativ betrifft, ist im digitalpolitischen Diskurs bisher nicht erkennbar.16
II. Digitale Selbstbestimmung und digitalisierungsbezogene Kompetenzen
1. Digitale Selbstbestimmung
Um sich einerseits gegenüber einem digitalisierten Staat bzw. gegenüber digitalisiertem Verwaltungshandeln und andererseits gegenüber digitalisierten und plattformisierten Wirtschaftsunternehmen verhalten und behaupten zu können, braucht es ein ausreichendes Maß an digitaler Selbstbestimmung. Ein Recht auf digitale Selbstbestimmung kann mit Bezug zur informationellen Selbstbestimmung i. S. d. Art. 2 Abs. 1 i. V. m. Art. 1 Abs. 1 GG als Grundrecht verstanden werden und ergänzt das allgemeine Persönlichkeitsrecht.17 Digitale Selbstbestimmung muss Mindestziel von Bildung in einer digitalisierten Gesellschaft sein.
Ein Begriffskonzept zur digitalen Selbstbestimmung wurde schon umfassend definiert.18
Danach reicht es für die Gewährleistung digitaler Selbstbestimmung nicht, die Verantwortung für die Teilnahme an einem mehr oder weniger digitalisierten Leben auf freie Bürger:innen zu übertragen. Stattdessen seien technische und soziale Rahmenbedingungen zu schaffen, die allen Menschen die Chance geben, digital selbstbestimmt handeln zu können. Es gehe um den Schutz von Grundrechten, um Ermächtigungsstrukturen und die Bildung und Aneignung von Kompetenzen. Ergänzend zu dieser genderneutral formulierten Definition gilt, dass diese Rahmenbedingungen und Ermächtigungsstrukturen nur genderkompetent mit proaktiven Maßnahmen gegen den bestehenden Digital Gender Gap geschaffen werden können.
Als Stichwort in diesem Zusammenhang wird auch verwendet der Begriff „digitale Souveränität“19
. Dies umfasst mehr oder weniger trennscharf im Diskurs meist sowohl die Forderung nach einem digital souveränen Staatswesen als auch nach digital souveränen Bürger:innen. Zwar sind den international agierenden machtvollen und monopolisierten Tech-Unternehmen sowohl Einzelstaaten als auch Einzelpersonen zunehmend infrastrukturell ausgeliefert. Dieser Gleichlauf von Abhängigkeit darf aber nicht über die Unterschiedlichkeit von Interessenlagen hinwegtäuschen. Die Position der Bürger:innen ist jedenfalls durch eine doppelte Vulnerabilität sowohl gegenüber Wirtschaftsunternehmen als auch gegenüber einem digital überwachenden oder verwaltenden Staat gekennzeichnet. Daher kann hier für einen sachgerechten digitalpolitischen Diskurs kein einheitlicher Begriff gewählt werden.
Auch der Begriff „digitale Mündigkeit“20
beschreibt in diesem Zusammenhang das Ziel, sich als Person selbstbestimmt in einer digitalisierten Gesellschaft bewegen zu können. Es müsse Verantwortung für das eigene Handeln im digitalen Raum selbst getragen werden. Statt Technik für alle Menschen sicher handhabbar zu entwickeln, wird damit aber ein Entwicklungsprozess bei jedem einzelnen Menschen gefordert. Menschen, die nicht über umfassende digitale Kompetenzen verfügen, versetzt das begrifflich in einen vormundschaftsbedürftigen Zustand, was vor dem Hintergrund der Historie von Frauenrechten mit ihren Einschränkungen bei bürgerlichen Rechten eine fatale Begriffsassoziation bedeutet und vermieden werden sollte.
2. Digitalisierungsbezogene Kompetenz braucht Genderkompetenz
Um Digital Gaps zu überwinden und digitale Selbstbestimmung zu ermöglichen, ist ein Paradigmenwechsel im Bildungsbereich erforderlich. Digitalisierung verändert die gesamte Art und Weise des Kompetenzerwerbs.21 Es reicht nicht aus, digitale Bedienkompetenz zu vermitteln. Ein neues Bildungsverständnis in der digitalisierten Gesellschaft hat der 3. GlB unter den Begriff „digitalisierungsbezogene Kompetenz“ gefasst.22 Voraussetzung für Teilhabe in einer digitalisierten Gesellschaft sei ein Kompetenzerwerb, der über das Bedienen hinausgehe und zu einem bewussten und selbstbestimmten Umgang mit der Digitalisierung als solcher führe. Nur so können sich alle Menschen gleichberechtigt in einer digitalisierten Gesellschaft bewegen, einer Erwerbsarbeit nachgehen und an einem demokratischen Diskurs ohne Eigengefährdung und digitale Selbstentblößung teilhaben.
Darüber hinaus braucht es speziell ein Umdenken im Bereich MINT (Mathematik/Informatik/Naturwissenschaft/Technik). Spezialisierte Bildung im MINT-Bereich ist notwendig. Aber diese Bereiche sind zurzeit nicht angemessen inhaltlich konzipiert, um digitalisierte Systeme einschätzen, anwenden oder eben entwickeln und angemessen einhegen zu können, da soziale Kompetenzen fehlen.23 Es ist ein Denkfehler, herkömmliche MINT-Fächer als ausreichende digitale Expertise anzusehen. Es braucht ein doppeltes Umdenken:
nicht nur das allgemeine Bildungsverständnis muss um digitalisierungsbezogene Kompetenz ergänzt werden,
auch das MINT-Bildungsverständnis muss um soziale Kompetenz ergänzt werden (MINT-Plus-Kompetenz).
Und Genderkompetenz ist als Bestandteil digitalisierungsbezogener Kompetenz bzw. von MINT-Plus-Kompetenz unverzichtbar. Sozialwissenschaftliche Erkenntnisse und soziale Kompetenzen zu Geschlechterungerechtigkeiten müssen in die Qualifizierung von Lehrkräften, in die MINT-Fächer und in technische Institutionen und Gremien und am besten auch in den Unternehmen zwingend mit eingebunden werden – und das heißt bei Männern genauso wie bei Frauen –, um Gender-Biases mit ausreichendem Wissen begegnen zu können. Eine bloße Vermittlung digitaler Bedien- bzw. medialer Anwendungskompetenz ist nicht nur nicht ausreichend, sondern im Hinblick auf Geschlechtergerechtigkeit kontraproduktiv. Denn Digitalkompetenz überall und von allen gleichermaßen einzufordern, konfrontiert Frauen und Mädchen infolge ihrer stereotyp wenig technikaffinen Sozialisierung ständig mit erhöhten individuellen Anforderungen. Es verlangt hohen Kraftaufwand, die strukturell bestehenden verinnerlichten Muster immer wieder individuell überwinden zu müssen. Das verfestigt eine digitale Abwehrhaltung weiblich sozialisierter Personen, was in einer digitalisierten Gesellschaft den auch in der technisierten Gesellschaft schon bestehenden Gender-Technik-Bias noch verschärft.
Gefordert wird meist nur, dass mehr Frauen in MINT-Berufe gebracht werden müssen. So gutgemeint und so wichtig das auch weiterhin ist, es enthält einen Denkfehler. Denn so wird Frauen allein eine unfaire Verantwortung aufgebürdet („fix the women“ statt „fix the company“). Umgekehrt müssten eher Männer, die bereits technikaffin sozialisiert wurden, sich digitalisierungsbezogene Genderkompetenzen und ein MINT-Plus-Selbstverständnis erarbeiten, damit geschlechtergemischte und diverse Teams überhaupt konstruktiv arbeiten können.24
Es hat sich auch gezeigt, dass reformierte MINT-Studiengänge mit soziotechnisch erweiterten Inhalten durchaus mehr Frauen ansprechen.25
Es müssen sich also MINT-Frauenförder- und MINT-Reformansätze ergänzen, um das Problem der Unterrepräsentation von Frauen von zwei Seiten her aufzulösen.
3. Genderkompetente Analyse digitaler Berufspraxis
Weiter ist die digitale Berufspraxis und die dabei schon erreichte Frauenbeteiligung in der Digitalbranche zu analysieren. Auch innerhalb der Digitalberufe zeichnet sich ein Gendereffekt ab. Auffällig sind geschlechterstereotype Zuweisungen innerhalb dieser Berufe. Berufliche Inhalte wie Usability/UX und Interface-Design/UI (= Gestaltung einer möglichst nutzungsfreundlichen gefälligen Bedienoberfläche), Data-Audits (= Aufräumen der Datenverarbeitungsprozesse im Unternehmen, „Daten putzen“26
) oder Digitalisierung von Office-Leistung (Prompting-Assistenz, Datenbankpflege etc.) übernehmen durchaus viele Frauen und verbleiben damit in typisch weiblichen Assistenzfunktionen. Das spiegelt sich auch in den algorithmischen Systemen selbst, die als Assistenzen oft verweiblicht, z. B. mit weiblichen Namen versehen sind (z. B. ELSA27
, VERA28
, GRETA29
). Die inhaltlichen Gestaltungen der Anwendungsmöglichkeiten digitaler Verarbeitungsprozesse dagegen verbleiben bei den männlich dominierten Berufen (= Berufe wie Data Analyst, Data Scientist, Data Engineer und der gesamte Prozess des Programmierens). Auch der erreichte Frauenanteil innerhalb der Digitalbranche bedarf also genderkompetenter Überprüfung.
Genau geprüft werden muss ein Gendereffekt auch in der digitalen Weiterbildung.30
Wer muss Digitalisierung nebenher erlernen, um seinen Job zu behalten, wird dabei aber beim Lernen nicht unterstützt durch bezahlte Bildungsmaßnahmen und nach Kenntniserwerb auch nicht besser, sondern eher schlechter, bestenfalls gleich gut bezahlt? Wer soll Digitalisierung lernen, wird dabei aber mit bezahlten Weiterbildungsmaßnahmen unterstützt und nach erfolgreicher Absolvierung besser bezahlt?
C. Digitale Gewalt und Demokratiegefährdung
I. Geschlechterdimension digitaler Gewalt
Trotz aller Hoffnungen auf mehr öffentliche Teilhabe und Befreiungseffekte für Frauen hat sich das Internet mit allen seinen innovativen digitalen Anwendungen bisher als ein extrem gefährlicher frauenfeindlicher Ort erwiesen.31 Das bedeutet Gefahr für die in den demokratischen Staaten erreichte Gleichstellung von Frauen und für die Demokratie als solche. Um den Digital Gender Gap zu überwinden und digitale Selbstbestimmung für alle zu gewährleisten, braucht es die Bekämpfung digitaler Gewalt. Bei der Bekämpfung digitaler Gewalt geht es nicht nur um den Schutz Einzelner und die Sicherung ihrer Teilhabe, sondern auch um den Erhalt einer wehrhaften Demokratie.
Das Phänomen digitale Gewalt ist gesellschaftlich erkannt und wird – meist in der medialen Form von Hate Speech – im politischen Diskurs benannt.32
Dabei hat digitale Gewalt in erster Linie eine Geschlechterdimension.33
Digitale Gewalt gefährdet primär Frauen und bedroht sie gruppenspezifisch betrachtet in doppelter und intersektionaler Weise. Diese Gefährdungen gehen weit über mediale Beschimpfungen und Bedrohungen in Form von Hate Speech hinaus.
Mit dem Digital Services Act (DSA)34
wollte die EU rechtswidrigen medialen Inhalten allgemein begegnen und ein sicheres Onlineumfeld für alle schaffen (sog. Grundgesetz des Internets). Plattformen müssen u. a. Maßnahmen ergreifen, um rechtswidrige Inhalte zu identifizieren und zu entfernen.35
Große Plattformen sollen verpflichtet sein, auch sog. systemischen Risiken, die durch die Verbreitung rechtswidriger Inhalte entstehen und sich durchaus auf digitale Gewaltphänomene beziehen können, entgegenzuwirken.36
Inwieweit die im DSA vorgesehenen Durchsetzungsinstrumente dabei ausreichend sind, um digitaler Gewalt effektiv zu begegnen, muss sich noch zeigen. Aktuell droht, dass die Durchsetzung des DSA und auch seine Umsetzung in Deutschland aufgrund der aktuellen politischen Lage in den USA nur noch schleppend vorankommen.37
Der 3. GlB hatte die Politik bereits 2021 auf die weit über Hate Speech hinausgehenden umfassenden Dimensionen digitaler Gewalt gegen Frauen hingewiesen und zum Handeln aufgefordert.38
Die Breite des Phänomens digitaler Gewalt und das enorme Ausmaß, das diese für Frauen angenommen hat, wird politisch bisher nicht ausreichend wahrgenommen. Die digitale Transformation der Gesellschaft hat das Leben für die Menschen faktisch in allen Bereichen digitalisiert. Hier trifft das Phänomen digitale Gewalt mit der alltäglichen Gewalt gegen Frauen zusammen. Die Dynamiken von digitalisierten Gewaltdimensionen durch die massenhafte Alltagsdigitalisierung sind noch nicht ansatzweise erkannt und erforscht. In diesem Zusammenhang ist der Begriff digitale Gewalt zu präzisieren und in seiner Quantität auszudifferenzieren. Quantitativ muss an erster Stelle von einer „Digitalisierung geschlechtsspezifischer und sexualisierter Gewalt“39
gegen Frauen gesprochen werden.
Dabei spannt sich ein sehr weites Feld neuer digitalisierter Gewaltformen auf. Es reicht von Hate Speech über digitale Belästigungen (Zusendung pornographischen Materials, Dickpics) zu bildbasierter Gewalt (heimliche Erstellung/Veröffentlichung unbefugter Bildaufnahmen, Deepfakes); über Cybermobbing, Cybergrooming, Cyberstalking hin zu Doxing (=digitales Bloßstellen) und Diebstahl digitaler Identitäten; von digitalen Gewalt- und Morddrohungen über digitales Ausspionieren hin zum Abfangen von Daten; von Tracking, Ortung und Überwachung durch Spy- und Stalkerware bis hin zu einer totalen Kontrolle durch IoT(Internet of Things)- und Smart Home-Geräte. Die Aufzählung erfolgt hier ohne Anspruch auf Vollständigkeit. Denn Wissenschaft und Forschung sind nur marginal vorhanden und ein präzise erfasstes Lagebild für politische Maßnahmen fehlt. Geschlechtsspezifische Daten werden zu diesen Bereichen kaum erfasst. Feststellen lässt sich, dass sich digitale Gewalt aus dem virtuellen Raum nahtlos in den analogen Raum hinein fortsetzt und dort zunehmend gewaltverschärfend wirkt.
Misogyne Narrative bahnen als Hate Speech via Social Media nicht nur den Weg für rechte politische Radikalisierung, sondern führen zu einer allgemeinen Verrohung und erweitern durch z.T. offen frauenfeindlich beworbene digitale Überwachungstools gesamtgesellschaftlich die Kontrolle über Frauen. Dies gefährdet Frauen zunehmend an Leib und Leben und wirft sie zurück in ihrer digitalen Selbstbestimmung. Die schützenden staatlichen Infrastrukturen bei Polizei und Justiz wurden und werden von Frauen bei persönlichen Gewalterfahrungen dabei als weitgehend unwirksam erlebt. Hier stellt sich die Frage, wessen Sicherheit in einer digitalisierten Gesellschaft wie und wo geschützt wird.40
Es fließen enorme Ressourcen in die präventive Abwehr von Cyberangriffen und in die Cybersicherheit, was als höchst wichtiges gesamtgesellschaftliches Problem wahrgenommen wird. Digitale Gewalt wird dagegen als Problem einzelner Personen im Verbraucher:innenschutz oder als Beleidigungsdelikt ohne öffentliches Interesse an der Verfolgung verortet. Das Bundesamt für Sicherheit in der Informationstechnik (BSI), welches eigentlich für die Präventivsicherheit bei der Nutzung digitaler Systeme zuständig wäre, zeichnet sich durch mangelndes Problembewusstsein aus.41
Die Digitalpolitik übersieht in diesen Bereichen die strukturelle Geschlechterungerechtigkeit in der Gesellschaft.
II. Demokratiegefährdung
Wo Frauen sich im Netz öffentlich äußern, riskieren sie sexistische Belästigung und pornografische Pöbeleien. Politikerinnen sind hier aufgrund ihres Geschlechts besonders betroffen42
mit wahrscheinlich fatalen Folgen für politische Repräsentation und Partizipation von Frauen in der Politik. Viele Frauen ziehen sich zurück und partizipieren nicht mehr am digitalen öffentlichen und zunehmend misogynen Diskurs. Dies bedeutet nicht nur die Verletzung individueller Rechte, es schadet der Demokratie. Frauen sind hier nur die ersten, die aus dem Diskursraum vertrieben werden. Das Phänomen dieses sog. Silencing bedroht nicht nur individuelle Meinungen sondern auch die Meinungsvielfalt und den demokratischen Diskurs als solchen.
In der digitalisierten Gesellschaft ist es möglich, mediale Inhalte user-generiert in großem Umfang zu verbreiten. Misogyne Inhalte unterhalb der Rechtswidrigkeitsschwelle fungieren oft als Einfallstor für eine Radikalisierung hin zu antidemokratischen Ideologien.43
Es ist zu befürchten, dass durch umfangreich finanzierte private digitaltechnisch ausgestattete Organisationen misogyne Narrative gezielt lanciert und bevorzugt als user-generated Content verbreitet werden. Übernahmen medialer Plattformen, wie es bei Twitter aktuell hin zu X passiert ist, verdeutlichen diese Prozesse und ermöglichen noch viel weitergehendere Einflussnahmen auf den politischen Diskurs. Auch dies ist eine Form medialer digitaler Gewalt gegen Frauen.44
Die aktuelle weltpolitische Situation, die jede Medienregulierung als eine die Meinungsfreiheit verletzende Zensur brandmarkt,45
wird die Situation hier weiter verschärfen.
III. Forschung, Prävention und Rechtsdurchsetzung
Um dem enormen Ausmaß der Digitalisierung geschlechtsspezifischer und sexualisierter Gewalt gegen Frauen begegnen zu können, bedarf es dringend empirischer Forschung und wissenschaftlicher Analysen zur Verbreitung, zu den Ursachen und den Folgen dieses Phänomens. Dafür müssen ausreichend Ressourcen und auch öffentliche Gelder eingesetzt und Daten geschlechtsspezifisch erhoben bzw. beschafft und ausgewertet werden. Nur so ist es möglich, angemessene politische Gegenmaßnahmen zu konzipieren und fortlaufend zu evaluieren. Maßnahmen lassen sich als dreifacher Ansatz fassen:
Prävention durch Regulierung,
Prävention durch Beratung,
Effektivierung von Rechtsdurchsetzung.
Hier sind seitens zivilgesellschaftlicher Organisationen bereits viele detaillierte Vorschläge und Forderungen im Einzelnen erhoben worden, auf die ausdrücklich verwiesen wird und die hier nur ansatzweise dargestellt werden sollen.46
1. Querschnittskompetenzen
Es müssen Querschnittskompetenzen im Bereich digitale Gewalt sichergestellt werden, um Wissen über digitale Gewaltphänomene verfügbar zu machen. Ein entsprechendes Bewusstsein muss bei staatlichen Einrichtungen, Sicherheitsbehörden, Polizei und Justiz und in allen technischen Institutionen und Gremien sowie in der Digitalbranche geschaffen werden. Ein umfassender politischer Ansatz, der die strukturelle Herausforderung digitaler Gewalt proaktiv angeht, ist dringend erforderlich, um den Status quo digitalisierter Systeme (Plattformen, Social Media, digitale Dienste und Smart-Devices der Digitalbranche) nachhaltig zu verbessern.
2. Technikregulierung
Daraus müssen sich konkrete politische Maßnahmen der Regulierung und Einhegung digitaler Technik und digitaler Dienste ergeben. So könnten z. B. Unternehmen der Privatwirtschaft zu einem Konzept des safety by design verpflichtet werden, welches soziale Technikfolgenabschätzungen unter Berücksichtigung von digitaler Gewalt zwingend umfasst. Die Digitalbranche muss darauf verpflichtet werden, ihre bestehenden Security-Prozesse entsprechend zu überprüfen und anzupassen (mehr Datensparsamkeit und Datenqualität, angepasste Sicherheitsupdates, Technik- und Datentransparenz, Kooperation mit Betroffenenorganisationen bei Entwicklungsprozessen etc.). Vorgaben, die eine gewaltvolle Nutzung von Geräten (= sog. dual use) ausreichend adressieren, können vom BSI als Standards oder Leitfäden für Entwicklung gestaltet werden. Verbote digitaler Technik (z. B. SpyApps für den privaten Gebrauch) können hier zwingendes Ergebnis sein.
3. Schutz digitaler Diskursräume
Um den demokratischen Diskurs zu schützen und zu stärken, sollten öffentlich-rechtliche Diskursräume geschaffen werden, auch für user-generated-content.47 Digitale Schutzaccounts könnten Selbstschutz ermöglichen, der Breite des Diskurses wieder Raum geben und marginalisierte Stimmen und Counterspeech stärken sowie Frauen ermutigen, sich am demokratischen Diskurs zu beteiligen.
4. Beratungshilfen
Daneben braucht es flächendeckend ausreichend Hilfesysteme und Ressourcen für Aufklärung und Beratung zu digitaler Gewalt. Die Beratungsinfrastruktur und -Ausstattung muss dem Ausmaß digitaler Gewalt gerecht werden. Neben der Hilfe für Betroffene müssen insbesondere auch Maßnahmen angeboten werden, die Empowerment und Bildungsangebote hin zu digitaler Selbstbestimmung für Frauen und Mädchen speziell fördern. Dafür muss technische Expertise in bestehende Gewaltberatungsstellen gebracht werden, um IKT (Informations- und Kommunikationstechnik)-Know How mit psychosozialem Beratungswissen zu vernetzen.
5. Sicherheitsnetzwerke und Gefährderansprache
Dem BSI könnte flächendeckend die Aufgabe zufallen, ein Cybersicherheitsnetzwerk gegen digitale Gewalt aufzubauen, welches die Hersteller von IKT-Technik zwingend einbindet. Finanzielle Abgaben bei der Herstellung von Dual-Use-geeigneter Technik zur Finanzierung zivilgesellschaftlicher Abwehrmaßnahmen sind sinnvoll. Die in Europa bestehende Datenschutzinfrastruktur der DSGVO ist auszubauen als Gewaltschutz-Infrastruktur für durch digitale Gewalt gefährdete Personen. Die Umsetzung des DSA ist mit ausreichend Ressourcen sicherzustellen. Zu denken ist hier auch an konkrete Maßnahmen, mit denen dem faktisch durch die Misogynie des Internets erhöhten Gewaltpotential bei den meist technikaffin männlich sozialisierten Tätern präventiv begegnet werden kann, z. B. durch Digitalgefährder-Ansprachen oder Ansprachen von namentlich bekannten Hatern durch eine proaktive Anti-Digitale-Gewalt-Sozialarbeit.
6. Rechtshilfen
Die Rechtsdurchsetzung im Bereich digitalisierter geschlechtsspezifischer und sexualisierter Gewalt gegen Frauen zeichnet sich durch eine enorme Ineffektivität aus. Eine fehlende Rechtsmobilisierung kennzeichnet schon den analogen Bereich geschlechtsspezifischer und sexualisierter Gewalt, insbesondere bei häuslicher Gewalt. Dies verschärft sich aktuell durch die wahrscheinlich extrem hohen Fallzahlen bei digitalisierter Gewalt. Die Dunkelziffer an Betroffenen ist höchstwahrscheinlich sehr hoch. Hinzukommt, dass bei Polizei und Justiz nicht nur keine ausreichenden Kompetenzen im Bereich digitale Gewalt bestehen, sondern auch keine ausreichenden Ausstattungen im IKT-Bereich vorhanden sind, die dem Ausmaß digitalisierter Gewalt gerecht werden können. Es braucht hier insgesamt eine Effektivierung der Rechtsdurchsetzung. Dafür braucht es flächendeckende ausreichend digital und finanziell ausgestattete Hilfestrukturen für Betroffene auch für die Rechtsdurchsetzung. Weiter braucht es ausreichend Sensibilisierung und Schulungen zu digitaler Gewalt sowie digitale Ausstattung bei Polizei, Staatsanwaltschaften und Justiz.
Daneben sind im Rahmen der Evaluierung bestehender strafrechtlicher und zivilrechtlicher Vorschriften und Verfahren zahlreiche Verbesserungen denkbar. Es bedarf der Schließung von Strafbarkeitslücken und ergänzender strafprozessualer Reformen bei digitalisierter Gewalt (insbesondere betreffend Deep Fakes und Doxings).48
Mit einem Gesetz gegen Digitale Gewalt49
könnte dem Phänomen spezifisch begegnet werden. Sinnvoll kann hier auch die Einführung vermehrt digitalisierter Verfahren bei der Verfolgung dieser massenhaft digital begangenen Rechtsverletzungen sein (Stichwort Digitalisierung der Justiz). Fraglich ist, ob nicht in Form einer Gefährdungshaftung auch Anspruchsgrundlagen auf finanziellen Ausgleich gegen digitale Dienste konzipiert werden können, die dann über Verbände oder andere zivilgesellschaftliche Institutionen oder von Aufsichtsbehörden eingefordert werden und der Bekämpfung digitaler Gewalt dienen können.
D. Der Gender Data Gap
I. Struktur
Geschlechterungerechtigkeiten und geschlechtsspezifische Ausschlüsse, die strukturell in der Gesellschaft bestehen, verstärken und verfestigen sich in einer digitalisierten Gesellschaft. Das Phänomen des Gender Data Gap, einer Geschlechterdatenlücke zuungunsten von Frauen, wurde insbesondere durch die Journalistin Criado Perez50 bekannt. Spezifische Probleme für die Geschlechtergerechtigkeit können unter zwei Aspekte gefasst werden:
Zum einen passiert Diskriminierung, wenn geschlechtsbezogene Daten nicht als relevant erkannt werden bzw. aufgrund der mangelnden Anerkennung ihrer Relevanz nicht zur Verfügung stehen. Dadurch bleiben Personen und ihre Lebenswirklichkeiten unsichtbar, daten- bzw. algorithmenbasierte Entscheidungen benachteiligen sie entsprechend (= Gender Data Gap).
Zum anderen können geschlechtsbezogene Daten oder auch nur Proxies (= Ersatzdaten, anhand derer auf Geschlecht geschlossen wird) auch dort Relevanz entfalten, wo sie diskriminierende Effekte verursachen und kein Entscheidungskriterium sein dürfen (= diskriminierende Stereotypisierung). Diese systematischen Verzerrungen gehen über eine rein lückenhafte Datenerhebung noch hinaus und schlagen sich als ein noch weitergehender Gender Bias in datengetriebenen Systemen nieder (= Gender Bias).
Ein besonders empörender Bereich, in dem Frauen in den Daten unter- bzw. fehlrepräsentiert sind, ist der Bereich Gesundheit, wo fehlende Genderkompetenz weibliche Körper an Leib und Leben gefährdet.51 Auch im Finanzwesen erhalten als männlich interpretierbare Daten automatisch höhere Kreditsummen. Weitere existentielle Benachteiligungen bestehen z. B. auf einem plattformisierten und digitalisierten Erwerbsarbeitsmarkt und insbesondere auch im Bereich staatlicher Verwaltung und Gefahrenabwehr. Das Auftreten von Diskriminierungseffekten in digitalisierten Prozessen ist mittlerweile unbestritten.52 Entsprechende Bias-Phänomene bestehen noch weitergehender in Bezug auf marginalisierte Gruppen (Personen mit Behinderungen, migrantische Personen, queere Personen etc.). Frauen können insoweit als Personen doppelt betroffen sein oder es bestehen Intersektionalitäten. Dabei gilt:
ob datengetriebene Digitalisierungsprozesse diskriminieren, hängt nicht von technischem sondern von sozialem Wissen der Personen ab, die digitale Technologien entwickeln und anwenden;
ob datengetriebene Digitalisierungsprozesse diskriminieren, hängt nicht davon ab, ob personenbezogene oder nicht personenbezogene Daten zum Einsatz kommen.53
Der weitverbreitete Irrtum, dass nur personenbezogene Daten Regulierungsbedarf erzeugen und nicht personenbezogene (auch anonymisierte oder pseudonymisierte) Daten gesellschaftlich unproblematisch sind, ist zu überwinden. Was personenbezogene Daten betrifft, will die Reformdiskussion zur DSGVO aktuell die Ausgestaltung des Datenschutzes in Europa abschwächen.54 In der Debatte wird dabei zu wenig berücksichtigt, dass die DSGVO nicht lediglich ein technisches wirtschaftsbezogenes Regelwerk ist, sondern eine zentrale Grundrechtsgarantie. Die DSGVO wirkt vergeschlechtlichten Machtasymmetrien entgegen, indem sie die Erhebung und Verarbeitung personenbezogener Daten – einschließlich sensibler Daten wie Geschlecht oder Gesundheitsinformationen – strengen Prinzipien der Zweckbindung, Datenminimierung und Transparenz unterwirft und so faktisch Frauen schützt. Wesentliche Aufgabe datenbasierter digitaler Technikgestaltung muss es sein
zum einen Datenschutz bei personenbezogenen oder auf Personen rückführbaren Daten zu gewährleisten und
zum anderen durch aktive Datenerhebungen und Datenverarbeitungen in digitalisierten Auswertungszusammenhängen Teilhabe für alle transparent sicherzustellen.
Entscheidend für Geschlechtergerechtigkeit in einer datengetriebenen Gesellschaft ist ein Umdenken hin zu einem ausgewogeneren Umgang mit Daten. Datenqualitätsstandards und Datenkompetenzen sind zu definieren, um Geschlechtergerechtigkeit in einer sozialen Datenwirtschaft sicherzustellen.
II. Datenqualitäten und Datenkompetenz für eine soziale Datenwirtschaft
Die aktuelle digitalpolitische Diskussion thematisiert primär den Datenfluss. Daten sollen möglichst umfassend nicht nur dem Staat sondern auch einem freien Wirtschaftsverkehr zur Verfügung stehen und Innovation ermöglichen. Beim Data Governance Act55 für den öffentlichen Sektor, dem Data Act56 für die Datenweitergabe in der Privatwirtschaft und bei der europäischen Verordnung über künstliche Intelligenz (KI-VO)57 zur allgemeinen Regulierung von KI-Systemen fehlen dabei Regelungen zu Mindestanforderungen an die Datenqualität und in allen Rechtstexten fehlen Benennungen für das Kriterium Frauen/Geschlecht/Geschlechtergerechtigkeit.58
1. Massenhafte Datensammlungen
Seit der Verbreitung des Internets in den 90er Jahren werden digitale Datenbasen, die von großen Tech-Unternehmen generiert worden sind, zunehmend für Anwendungszwecke jeder Art zur Verfügung gestellt. Das vermeintlich gutgemeinte Ziel einer globalen Datennutzungsstrategie – nämlich mit großen Datenmengen digitale Innovationen auf breiter Basis zu ermöglichen – verschleiert, dass marktgetriebene Datennutzungen generiert aus einer geschlechterungerechten Gesellschaft eher einen Rückschritt als einen Fortschritt bedeuten. Insbesondere dann, wenn bias-belastete Daten aus der Vergangenheit unkritisch genutzt und – in neuen Kontexten angereichert – bias-belastet oder sogar bias-verschärfend ausgegeben werden.
Es gibt aktuell keine technischen Standards für den Vorbehalt der Rechte an im Netz sammelbaren Daten (= Datamining, Scraping).59
Die jüngsten EU-Digitalrechtsakte, die DSGVO und das Urheberrecht konnten die massenhafte bias-geladene Datensammlung rechtlich nicht einhegen.60
Wenige global agierende Firmen konnten sich einen immensen Machtvorsprung durch Rechtsbruch sichern.61
Dabei sind es männliche Sichtweisen, die sich massenhaft in Datensätzen manifestieren, weil im Netz von Männern generierter Content überwiegt.62
Als kritischer Aspekt kommt erschwerend hinzu, dass misogyne antifeministische Inhalte im Internet leicht zugänglich sind, oft bewusst eingesetzt als Einfallstor für weitere extremistische Inhalte.63
Die Masse solcher Daten führt nicht nur zu einer Verstärkung entsprechender Botschaften in digitalen Medien (= Radikalisierungsmaschine Internet),64
sondern auch dazu, dass solche problematischen Muster tief in der Struktur von KI-Modellen verankert werden.
2. Datenqualität und Datenanalyse
Die Sinnhaftigkeit eines Datensatzes hängt von der Datenqualität ab. Der Begriff Datenqualität wird allgemein als Eignung der Daten für die beabsichtigte Nutzung definiert (= fitness for use)65
. Hier existiert das Berufsbild Data Analyst mit den Analyseaufgaben Sichtung, Sortierung und Prüfung von Rohdaten, um deren Eignung zu bewerten. Bei der Beschaffung von Daten über Plattformen wie GitHub, Kaggle oder OpenML sind auch bereits bewertete Datensätze verfügbar. Rohdatensätze werden durch Data Analysts aufwendig bereinigt. Während dieses Prozesses wird ein Probemodell getestet. Fallen die Ergebnisse zu ungenau aus, folgt ein sog. Feintuning der Daten.
Sich diesen Arbeitsprozess in der Datenwirtschaft mit den darin enthaltenden Wertungsentscheidungen klarzumachen ist wichtig, um die Einbruchstellen für Geschlechterungerechtigkeiten und Biases erkennen zu können.66
Dabei stellt sich die grundsätzliche Frage: Wer entscheidet, ob Daten gut oder schlecht geeignet sind – nach welchen Kriterien erfolgen Analysen, Bereinigungen und Feintuning? Hier geht es in weiten Bereichen gerade nicht um die Anwendung von MINT-Expertise.
3. Datengenerierung
Daten werden in der Digitalbranche also nie unbearbeitet in digitalen Systemen verwendet. Alle Anwendungen beruhen auf bearbeiteten Rohdaten. Neben dem Beruf des Data Analyst steht das Berufsbild des Data Scientist. Denn Datengenerierungen können weit über eine bloße Datenanalyse mit Sichtung, Testung und Bereinigung hinausgehen. Daten werden noch weitergehend aufbereitet. Es können auch zusätzliche Daten künstlich erzeugt werden, sog. synthetische Daten, oder es werden vorhandene Daten durch Software verändert nach bestimmten Vorgaben, sog. manipulierte Trainingsdaten. Eine große Herausforderung für Data Scientists liegt darin, soziale Zusammenhänge mitzudenken, um Handlungsbedarf zu erkennen, denn die Biases der echten Welt sollten in den datenverarbeitenden Systemen nicht fortgeschrieben werden.
Auch hier geht es nicht um MINT-Wissen. Bei Datengenerierungen gibt es sinnvolle Eingriffe in Rohdaten, z. B. bei der Generierung medizinischer Daten, die sich auf Krankheitsbilder fokussieren und die Datensätze mit wenigen Symptomen der Krankheit streichen, um Diagnostiken zu präzisieren. Eine Medizin mit Gender Data Gap führt aktuell zu Fehldiagnosen bei Frauen, da nicht repräsentativ mit geschlechtsspezifischen Daten trainiert wird und auch im analogen Medizinbereich Genderaspekte immer schon vernachlässigt wurden. Aber die Medizin ist auch ein Bereich, in dem die Notwendigkeit genderdiversifizierter Datensets immerhin schon erkannt wurde.67
In weiten Bereichen datengestützter Anwendungen fehlt es aktuell an einem ausreichenden Problembewusstsein. Das Selbstbild in der Datenwirtschaft ist aktuell eine stereotyp technikzentrierte Männerdomäne.68
Datengenerierung ließe sich also auch für die Bereinigung des Gender Bias nutzen. Das wird jedoch ohne soziales Wissen und Genderexpertise nicht erfolgen.
4. Datenkompetenz
In der Wissenschaft wird der Begriff Datenkompetenz oder Data Literacy als eine Zusammenfassung vielfältiger Kompetenzen hinsichtlich des Umgangs mit und der Nutzung von Daten beschrieben.69 Solche vielfältigen Kompetenzen beschränken sich in den EU-Daten- und Digitalgesetzen im Wesentlichen darauf, den Datenfluss möglichst effektiv zu gestalten. Im Data-Act wird Datenkompetenz mit der Fähigkeit umschrieben, „sich des potenziellen Werts der (...) generierten, produzierten und weitergegebenen Daten bewusst zu werden“.70 Die KI-VO fordert KI-Kompetenz.71 Diskriminierungen und Gender Biases werden aber nicht adressiert. Die zivilgesellschaftlich erarbeitete Data-Literacy-Charta72 spart in ihrer Definition von Datenkompetenz den weiblichen Teil der Bevölkerung aus. Sie spricht von einer „gesellschaftlich-kulturellen Perspektive“, die an letzter Stelle in einer Klammer stehend hinter anderen „juristischen, ethnologischen, ethischen und philosophischen Aspekten“ nur noch „Ungleichheits-Aspekte“ benennt, ohne einen Geschlechterbezug herzustellen. Genderkompetenz wird bei der Datenkompetenz so nicht nur nicht benannt, sondern aktiv zum Verschwinden gebracht.
5. Genderkompetenz und Nutzung digitaler Spiegelung
Mit verpflichtenden Regulierungen könnte bereits bei der Datenanalyse angesetzt werden. Aufklärungspflichten könnten dazu beitragen, einen Bewusstwerdungsprozess in Gang zu setzen, der eine unreflektierte Weiternutzung von bias-belastetem Datenmaterial verhindert. Dies sollte ein Bias-Standardprozess inkl. Genderkompetenz sicherstellen. Die Open-Data-Grundsätze73 sind entsprechend auszubauen. Diese Forderung richtet sich insbesondere auch an Unternehmen, die öffentlich verfügbare Daten ohne Prüfung auf diskriminierende Effekte für eine breite Nutzung in der Gesellschaft niedrigschwellig anpreisen. Es ist wahrscheinlich, dass Datensätze grundsätzlich unausgewogen sind. Ob sich ein Bias durch technische Anwendungen überhaupt nachträglich bereinigen lässt, ist fraglich. Es gibt Open-Source-Tools, die Ansätze dazu enthalten.74 Die meisten erfordern soziokulturelles Wissen, das zur Zeit in der Digitalbranche fehlt.
Es braucht daneben eine Diskussion, wie sich bias-abbildende Datenbanken für gesellschaftliche Zwecke nutzen lassen. Denn die in den Datenbasen enthaltenen Informationen zu gesellschaftlichen Biases böten durchaus eine Chance für mehr Geschlechtergerechtigkeit in der Gesellschaft. Die unverfälschte digitale Spiegelung der Gesellschaft in Daten ermöglicht eine realitätsgetreue Erfassung von gesellschaftlichen (Macht-)Verhältnissen. Eine am Gemeinwohl für alle Menschen orientierte digitalisierte Gesellschaft müsste es aushalten können, wenn mit digitalen Mitteln aufgezeigt wird, wie ungleich Besitz- und Machtverhältnisse aufgeteilt waren und sind.75 Dafür könnten auch schon bestehende geschlechterdiversifizierte Datenquellen umfassend digital aufbereitet und erschlossen werden.76 Wenn Daten auf diese Weise aufbereitet werden, machen sie Ungerechtigkeit nicht nur sichtbar sondern auch politisch vermittelbar und angreifbar. Kontrolle über Datengenerierung und ihre Interpretation zu haben, entscheidet über das Maß an Teilhabe in dieser Gesellschaft. Datengewinnung und Datengenerierung kann Instrument zur Förderung sozialen Wandels hin zu mehr Geschlechtergerechtigkeit werden.77 Öffentliche Stellen könnten Vorbild einer insoweit verbesserten Informationspolitik zur Datennutzung sein.
6. Betroffenenrechte
Soweit sich Risiken durch digitale Anwendungen bereits verwirklicht haben, müssen ausreichend Betroffenenrechte zur Verfügung stehen, um gegen Verantwortliche auch individuell vorgehen, sich gegen Diskriminierungen wehren und Schadenskompensation erlangen zu können. Die DSGVO enthält Betroffenenrechte, die bei Datenschutzverletzungen Auskunfts- und Schadensersatzpflichten auslösen können. Diese sind aufgrund intransparenter Datenverarbeitungen und umfangreicher Einwilligungspraxis für Betroffene allerdings nur schwer nutzbar. Entsprechende Rechte fehlen in der KI-VO. Inwieweit sich Betroffenenrechte in einem Digital Fairness Act78 und weiteren europäischen Rechtsakten (Produkthaftung, Wettbewerbsrecht, Cybersicherheit) entwickeln werden, ist offen. Der kürzlich in Kraft getretene DSA enthält Ansprüche auf Löschung unrechtmäßiger Inhalte, die von Betroffenen gemeldet und im Wege eines Notice-and-Take-Down-Verfahrens durchgesetzt werden können. Dies sollte insbesondere auch Frauen als von digitaler Gewalt Betroffenen zugutekommen. Auf nationaler Ebene sollte eine Reform des Allgemeinen Gleichbehandlungsgesetzes (AGG) die neuen und umfassenden algorithmenbedingten Diskriminierungen gesetzlich erfassen.79 Eine individuelle Rechtsdurchsetzung gegenüber den großen Tech-Unternehmen bleibt durch rechtliche, finanzielle und strukturelle Herausforderungen gekennzeichnet. Kollektive Ansätze80 und mehr Unterstützung durch Betroffenenschutzorganisationen müssen hier insbesondere die Position von Frauen stärken.
E. Bedeutung für algorithmische Assistenzsysteme, algorithmengestützte Entscheidungen und künstliche Intelligenz (KI)
I. Von Assistenzsystemen bis zu KI
Die Regulierung daten- und algorithmenbasierter Systeme wird mit darüber entscheiden, ob bisherige gleichstellungspolitische Erfolge bewahrt und eine Umsetzung des staatlichen Handlungsauftrags aus Art. 3 Abs. 2 GG weiter vorangetrieben werden können. Solche Systeme leiten Zukunftsentscheidungen aus digitalisierten Daten einer geschlechterungerechten Gesellschaft ab. Eine derartige Technik kann nur geschlechtergerecht eingesetzt werden, wenn der Aspekt Geschlecht besondere Beachtung erfährt.
Digitalisierung bedeutet an sich nur, dass die informationstechnische Bearbeitung analogen Geschehens durch Übersetzung in rechenbare Zeichen ermöglicht wird.81 Schon einfachste softwaregestützte Prozesse lassen sich als digitale Systeme bezeichnen. Zunehmende Komplexität entsteht durch immer aufwendigere, algorithmenbasierte und zunehmend autonome Assistenz- und Entscheidungssysteme. Hierzu gehören
zum einen Systeme, die bei Ein- und Zuordnungen schneller sein können als Menschen;
zum anderen Systeme, von denen sich erhofft wird, dass sie bei Entscheidungen und Zuordnungen mithilfe von KI besser sind als Menschen.
Bei allen diesen Systemen stellt sich immer die Frage, bei wem die Verantwortung für ihre Anwendung und die Haftung verbleiben. Dafür infrage kommen sowohl die Entwickler:innen bzw. Anbieter:innen (Produkthaftung) als auch die Betreiber:innen (Verschuldens- oder Gefährdungshaftung) solcher Systeme.82
Hier droht zur Zeit gesellschaftlich eine der atomaren Technik vergleichbare Situation, bei der Unternehmen die Haftung für vermeintlich beherrschbare Restrisiken digitaler Systeme auf die Gesamtgesellschaft abwälzen, da dies politisch mit Innovationsnarrativen unterstützt wird, ohne dass ein gesellschaftlicher Konsens über die Ethik der Technologie gelingt.
Die europäischen Staaten sind mit der KI-VO83
als einer risikobasierten Regulierung, die autonom entscheidende digitale Systeme gesellschaftlich einhegen will, solchen Gefahren weltweit erstmals politisch begegnet. Die Definition von KI-System in der KI-VO ist bewusst untechnisch gehalten, offen formuliert und sehr weit.84
Es gilt der Grundsatz: je höher das Risiko, desto schärfere Pflichten gelten für das System bis zur Möglichkeit des Verbots. Die KI-VO reguliert in erster Linie diejenigen, die die Systeme anbieten und nicht diejenigen, die die Systeme nur anwenden. Mit einer nachträglichen Erweiterung wurden noch die aktuellen technischen Entwicklungen hin zu sog. GPAIs (=General Purpose Artificial Intelligence System) erfasst. Da es diesen Allzwecksystemen an einem eindeutigen Anwendungsbereich fehlt, mussten eigene Risikoklassen geschaffen werden.85
Betreffend die Gefahr aller dieser digitalen Systeme für die Geschlechtergerechtigkeit gilt schlicht:
wo Rohdaten informationstechnisch verarbeitet werden, fängt Geschlechterungerechtigkeit an;
wenn Programmierungen hinzukommen, lässt sich Geschlechterungerechtigkeit noch bearbeiten;
wenn maschinelle Lernprozesse in Form von KI eingesetzt werden, droht sich Geschlechterungerechtigkeit zu verselbstständigen und unkontrollierbar zu werden.86
Auch analoge Technik hat immer schon einen Gender Bias in sich getragen. Die Aussage, Technik sei neutral, hat in Bezug auf Geschlechtergerechtigkeit noch nie gestimmt.87
Im Zuge der fortschreitenden Digitalisierung verschärfen sich diese technikimmanenten Probleme zunehmend.
Es ist wichtig, sich die Funktionsweise maschinellen Lernens vor Augen zu führen, um diese technikimmanenten Probleme zu erkennen.88
Diese beruht auf einfachen mathematischen Prinzipien, mit denen Rechennetze aufgesetzt werden (= neuronale Netze). Mit den in diese Netze eingespeisten Daten laufen selbstständig sich immer wiederholende Rechenprozesse ab, ohne dass es noch einer weiteren Programmierung bedarf (= Machine Learning). Solche Netze werden mittlerweile in immer mehr Schichten übereinandergelegt und mit immer höherer Energiekapazität berechnet, so dass sich Datennutzungen vervielfachen (= Deep Learning). Außerdem werden unterschiedlich aufgesetzte Netze zusammengeschaltet, so dass auch Querverknüpfungen entstehen (= multimodale Modelle). Hier findet sich die intransparente Black Box, da unbekannt und auch unkontrolliert bleibt, wie innen die Rechenprozesse miteinander verknüpft werden. Auf die, je nach Qualität und Generierung der eingespeisten Trainingsdaten, besseren oder schlechteren Rohergebnisse des Machine-Learning können wieder algorithmische Systeme aufgesetzt werden, um Endergebnisse zu beeinflussen. Dies ist aufgrund der bei dieser Technik schnell offensichtlich gewordenen Phänomene halluzinierender KI89
und diskriminierender KI90
auch notwendig, um Ergebnisse überhaupt verwendbar zu machen.
Die im Rahmen des Dataminings aus allgemeinen Quellen auf Vorrat gesammelten Daten können von der Tech-Industrie mit diesen Techniken in immer größerem Umfang genutzt und als digitale KI-Geschäftsmodelle gewinnmaximierend eingesetzt werden. Dabei wurde marketingtechnisch im gesellschaftlichen Diskurs eine Art Genialität für diese Technik in Anspruch genommen, in dem sie sich als menschenähnliche künstlich erzeugte Intelligenz geadelt hat. Höhepunkt der Entwicklung sind hier die GPAIs, die unspezifische Aufgaben selbstständig lösen. Tatsächlich ist die Parallele der als neuronal bezeichneten Rechennetze zum menschlichen Nervensystem minimal. Organische und chemische Prozesse im menschlichen Gehirn sind bei weitem nicht nachgebaut. Hinzukommt das von der KI-Branche gesetzte Narrativ „Mensch gegen Maschine“, das menschliche Intelligenz in Konkurrenz zu KI setzt. Dies verschleiert, dass auch hinter KI-Systemen menschliche sogenannte Data-Engineers stehen. KI-Systeme brauchen nach wie vor von echten Menschen analysierte Daten bzw. nachtrainierte Ergebnisse. Hier hat sich bereits eine ausbeuterische Click-Working-Industrie in typischer Ausnutzung weltweiter Wohlstandsgefälle entwickelt.91
KI, die Zeitersparnis und Perfektion verspricht, konfrontiert Menschen im Privatleben und in Erwerbsarbeitszusammenhängen heute zunehmend mit einteilenden und vorentscheidenden digitalen Systemen. Soweit den Systemen menschliche Entscheidungen als Kontrollentscheidung zwischen- oder nachgeschaltet werden (= human in the loop), entsteht das Phänomen, dass Menschen sich durch die technische Vorentscheidung in ihrem Urteil beeinflussen lassen (= Automation Bias).92
Menschliche Intelligenz verliert den eröffneten Wettkampf bereits insoweit, als z. B. Berufe als bloße Zuarbeit für KI-Systeme umdefiniert und niedriger entlohnt werden oder von Human-in-the-Loop-Positionen für gleiches Entgelt ein höherer Arbeitsdurchsatz erwartet wird.93
In welche Richtung sich diese Technik weiterentwickelt, ist offen. Als KI dominiert sie mittlerweile den gesellschaftlichen Diskurs derart, dass sogar ganz ohne neuronale Netze herkömmlich programmierte algorithmische Systeme als künstlich intelligent wahrgenommen und insgesamt digitaltechnisch ganz unterschiedlich arbeitende Anwendungen miteinander vermischt diskutiert werden. Das erschwert es, Digitalisierung einem sachlichen Diskurs zugänglich zu machen. Es sollte die Bezeichnung künstlich intelligent im Zusammenhang mit digitaler Technik sparsam bis gar nicht eingesetzt werden. Nur so bleibt klar, dass es nicht Intelligenz im menschlichen Sinn ist, die diese Technik bietet, sondern eine gesellschaftlich als neu zu erfassende digitaltechnische Entwicklung, die in der Interaktion mit menschlichem Handeln und Denken aktuell ein immens starkes und noch nicht einschätzbares Gewicht erhält.94
Hier wäre eine andere Begrifflichkeit sachgerecht und zum Beispiel der Begriff digitalautonom statt künstlich intelligent zutreffender.
II. Technikverständnis ohne soziotechnisches Wissen und Genderkompetenz
Bisher dominiert ein Technikverständnis, welches Technik als neutral und in sich rational betrachtet und technische Anwendungen unabhängig von Gesellschaft und sozialen Faktoren bewertet wissen will. Bedenken gegen digitale Anwendungen werden als Fortschrittsverweigerung abqualifiziert. Das verhindert, dass soziale Wertungen, wie sie z. B. durch Geschlechterstereotype der die Technik entwickelnden Personen erfolgen, sichtbar gemacht werden.95 Insgesamt bleiben in IKT-Entwicklungsprozessen die sozialen Anteile digitaler Technik in dreifacher Hinsicht ausgeblendet, nämlich
zum einen, was die Definition von Problemen angeht, die mit dem digitalen System gelöst werden (= defizitäre Problemanalyse);
zum zweiten, was ein ausreichend partizipatives Design der digitalen Systeme betrifft (= defizitäre Gestaltung);
zum dritten, was die Technikfolgen des digitalen Systems betrifft (= defizitäre Technikfolgenabschätzung).
Genderkompetenz wird aktuell hier nicht nur nicht einbezogen, sondern oft sogar von den überwiegend männlich sozialisierten Akteuren offen abgelehnt. Dies verschärft sich aktuell noch mehr aufgrund der internationalen politischen Lage in den USA. Technikdiskurse maßen sich stattdessen umfassendes soziales Wissen an. Dies spiegelt sich im Phänomen des sog. Technik-Solutionismus.96 Für vermeintlich jedes gesellschaftliche Problem wird eine digitale Lösungs- oder Verbesserungsmöglichkeit behauptet. Es ist aber ein Denkfehler, anzunehmen, dass Technik soziale Probleme lösen kann bzw. sich zur Lösung aller gesellschaftlichen Probleme eignet. Oft wird in diesen verkürzten Diskursen von Algorithmen oder KI gesprochen, wenn eigentlich eine Interaktion zwischen Digitaltechnik und Mensch gemeint ist, es sich also um eine Mischung aus digitalem und menschlichem System handelt (= sozio-technisches System).
Es braucht dringend den Paradigmenwechsel beim Technikverständnis hin zu einem soziotechnischen Ansatz.97 Es ist nicht vorstellbar, dass die Digitalbranche in ihrer derzeitigen Aufstellung als vorwiegend weiße und männlich dominierte Organisation Ausschlüsse von Frauen und Diskriminierungen in intersektionaler Dimension erfassen kann. Eine Zusammenarbeit mit empirischer Soziologie oder der Gewaltforschung ist Neuland für die Digitalbranche und technische Gremien. Es ist unwahrscheinlich, dass sich Geschlechtergerechtigkeit durch freiwillige Selbstverpflichtungen einstellt. Fachexpertisen zu Gleichstellungsdefiziten und insbesondere auch zu digitaler Gewalt müssen zwingend mit Technikexpertisen zusammengesetzt werden. Dafür braucht es eine institutionell gesicherte Verankerung von entsprechendem Wissen mit neuen Rahmenbedingungen in der Privatwirtschaft ebenso wie in staatlichen Einrichtungen. Das neue Digitalministerium sollte eine entsprechende Fachabteilung schaffen. Im Bundesamt für Sicherheit in der Informationstechnik (BSI) muss eine genderkompetente Technikfolgenabschätzung Standard werden. Die neue Bundesstiftung Gleichstellung und die Antidiskriminierungsstelle des Bundes müssen in Digitalprojekte eingebunden und dafür ausreichend mit Ressourcen ausgestattet werden.
III. Effizienzversprechen und Grenzen digitaler Technologie
Es werden sich in einer zunehmend digitalisierten Gesellschaft nicht alle sozialen Aus- und Wechselwirkungen voraussehen lassen. Sie müssen analysiert und evaluiert werden mit ausreichend Zeit und Ressourcen. Dies steht im Gegensatz zum Grundversprechen der Digitalisierung, nämlich dem Effizienzversprechen:
gleichwertige bzw. bessere Ergebnisse in kürzerer Zeit,
Zeitgewinn für bessere Tätigkeiten.
Insbesondere dort, wo menschenähnliche KI-Robotik als Lösung angepriesen wird, ist dies sozial zu hinterfragen. Hier wird Effektivität versprochen bei stereotyp weiblich konnotierten Tätigkeiten (Sorge- und Pflegeleistungen, Reinigungsarbeiten, Assistenzen jeder Art). Das hat viel mit vergeschlechtlichten Machtasymmetrien und patriarchalen Wertvorstellungen zu tun. Die geringe Wertschätzung für solche Tätigkeiten hat zur Folge, dass man glaubt, sie an Maschinen delegieren zu können. Bisher mit diesen Arbeiten belastete Mitglieder der Gesellschaft sollen dann vermeintlich wertvollere Tätigkeiten leisten. Ob sich die Hoffnung verwirklicht, dass beim Einsatz von Pflegerobotern mehr Zeit für soziale Interaktion mit den pflegebedürftigen Menschen gewährt wird oder ob der Pflegeberuf durch digitale Aufrüstung in noch problematischere Zeitkorsetts gepresst wird, ist jedenfalls sozial kompetent zu evaluieren. Bei der Elektrifizierung von Haushaltsgeräten hat dieses Effizienzversprechen nicht funktioniert. Restarbeiten und die Negierung von Zeitbedarfen für Hausarbeit, die mittels elektrischer Hilfsgeräte wie Waschmaschine, Geschirrspülmaschine etc. jetzt nebenher zu erfolgen hat, hat die Arbeit im Privathaushalt immer weiter verdichtet, vereinzelt, entsolidarisiert und Frauen in eine Doppel- und Dreifachbelastung durch die von ihnen zusätzlich erwartete Erwerbsarbeit gebracht.98
Außerdem verspricht die KI-Industrie, dass spezialisierte KI-Modelle für spezifische Bedarfe auf ihre allgemeinen GPAI-Modelle aufsetzen können, wenn sie für diese Bereiche trainiert und mit Datensätzen angereichert werden (z. B. LegalTech, FinTech, HealthTech etc.). Versprochen werden bessere, menschliches Wissen übertreffende Ergebnisse. Fraglich ist, wo es sich lohnt, digitale Anwendungen entsprechend aufwendig zu erstellen und wo einfache zielgenau programmierte digitale Unterstützungen ausreichen. Speziell für den Bereich öffentliche Verwaltung verdichten sich die Erkenntnisse, dass weniger KI hier mehr ist.99
Sorgfältig zu prüfen ist auch die Frage, inwieweit bei solchen Prozessen notwendige menschliche Rest- und Kompensationsarbeiten fehlbewertet in den Niedriglohnbereich verwiesen werden. Beides sind keine technischen Fragen.
Weiter soll die Mensch-Maschine-Schnittstelle zunehmend mit Sprachbefehlen intuitiv steuerbar werden, um KI möglichst ohne aufwendige Schulungen bedienbar und für den Bereich des Konsums z. B. im Smart Home marktgängig zu machen, sog. LLMs (= Large Language Models). Letzte Entwicklungen sollen hier KI-generierte Ergebnisse auch ohne bewusst gesteuerte Nutzungsentscheidung bei der Aufgabenausführung implementieren und so KI-Steuerungen verselbstständigen, sog. MCPs (= Model Context Protocols). Hier besteht die Gefahr, dass Ohnmachtserfahrungen diese Technikanwendungen prägen werden. Insbesondere der Bereich Privathaushalt ist extrem anfällig für Überwachungsfantasien und digitale Gewalt, so dass es schnell nicht nur um einen Automation Bias mit Unterwerfung unter Technik und fehlende Selbstbestimmung geht, sondern um konkrete Gefährdungen für Leib und Leben von Frauen.
Hier sind die Entwicklungen zurzeit offen. Ein KI-Hype beherrscht den Diskurs. Es besteht die Gefahr, dass Folgeschäden schnell geschaffener Digitalisierung im Nachhinein gesellschaftlich teuer kompensiert werden müssen. Technikverbote können Menschen vor schlecht generierten und schlimmstenfalls unter ausbeuterischen Bedingungen hergestellten KI-Systemen bewahren (z. B. Überwachungssysteme im privaten und öffentlichen Raum, Auswahl- und Prüfsysteme speziell in Erwerbsarbeitszusammenhängen und bei der öffentlichen Verwaltung). Eine geschlechtergerechte digitalisierte Gesellschaft braucht soziotechnisch informierte Innovationen. Begrenzungen und Bereiche zu definieren, in denen kein Einsatz erfolgen soll, um Schäden vorzubeugen und keine Ressourcen für nur vermeintliche Innovation zu vergeuden, ist nicht innovationsfeindlich sondern fortschrittlich. Dazu gehört immer auch die Frage, ob überhaupt und in welchen Grenzen digitale Technik eine innovative Lösung darstellen kann. Es hat bereits eine Marginalisierung der gesamten öffentlichen und privaten Medienlandschaft durch nicht mehr redaktionell arbeitende Digitalplattformen stattgefunden.100
Fatal wäre eine vergleichbare Marginalisierung demokratischer Infrastrukturen bei staatlicher Verwaltung und Justiz.
Bisher hat die Politik darauf vertraut, digitale Infrastrukturlösungen von den großen Tech-Unternehmen zu übernehmen (= proprietäre IT), so dass die staatliche Infrastruktur von der Digitalbranche abhängig geworden ist. Der Staat steht jetzt vor der Herausforderung, digitales Know How und digitale Infrastrukturen alternativ aufzubauen (Stichwort Digitale Souveränität).101
In einer Zeit, in der insbesondere demokratische Nationalstaaten und die EU zunehmend ohnmächtig gegenüber staatenähnlich finanzstarken Konzernen sind und mittels des Wettbewerbsrecht kaum Durchsetzungsmechanismen gegen Monopole erzeugen können, wird dies unverzichtbar.
IV. Transparenz und Vertrauen
Es existieren durchaus Versuche, vertrauenswürdige KI-Systeme zu schaffen. Das reicht von Forderungen nach mehr Transparenz über die KI-Kennzeichnung (= Flagging) bis zur Nachprüfbarkeit der von KI-Systemen autonom getroffenen Entscheidungen.102 So soll den diskriminierenden Effekten begegnet und Vertrauen in die Arbeit digitaler Systeme geschaffen werden. Es ist jedoch schon fraglich, ob sich aus bias-belasteten Rohdaten bias-freie Datensätze generieren lassen. Umso schwieriger scheint es, am Ende der digitalen Entscheidungsketten Bias-Phänomene digital reparierbar zu machen.
Gesellschaftlich genutzt werden in großem Umfang die umsonst angebotenen digitalen Dienste internationaler Tech-Unternehmen, die nur mit den eigenen Nutzungsdaten bezahlt werden müssen. Die großen Tech-Unternehmen beanspruchen für sich freien Zugang zu allen Daten, die sie aus ihren Diensten generieren. Für die Methoden bei Datensammlung und -verarbeitung beanspruchen sie ein Geschäftsgeheimnis. Gleichzeitig werben sie massiv darum, dass die Nutzer:innen auf die Sicherheit und Richtigkeit der Ergebnisse ihrer Systeme vertrauen und auch darauf vertrauen sollen, dass personenbezogene Daten geschützt werden.103
Gegen diese Geschäftspraktiken regt sich breiter gesellschaftlicher Widerstand.104
Aktuell will die EU mit einem Digital Fairness Act105
für mehr Transparenz im digitalen Raum sorgen. Ein generelles Verbot personalisierter Werbung, wie vielfach zivilgesellschaftlich gefordert,106
ist bisher nicht vorgesehen. Politisches Leitbild ist die Wahlfreiheit einer Person, die eigenverantwortlich eine Entscheidung für oder gegen die Nutzung eines Systems fällt (Stichwort Verbraucher:innenschutz). Ziel ist, Vertrauen durch Transparenz zu schaffen (Stichwort informierte Nutzung). Die Tech-Unternehmen sehen sich hier mit Informationspflichten konfrontiert, denen sie mit langen Texten begegnen und die sie im Hinblick auf ihre KI-Systeme inhaltlich gar nicht erfüllen können. Diese Texte werden in der Praxis nicht gelesen oder nicht verstanden, Einwilligungen sind hier regelmäßig datenschutzrechtlich ungültig, da sie uninformiert erteilt werden (= sog. consent fatigue).107
Eingewilligt wird faktisch in die Intransparenz der Systeme. Solche als wirtschaftsliberal verstandene Politik stiehlt sich aus der Verantwortung politischer Regulierung und verlagert strukturelle Probleme auf Individuen.108
So ein individuell eingefordertes Sich-Vertraut-Machen mit Technik beinhaltet für die Geschlechtergerechtigkeit gleich zwei Probleme.
Frauen fokussieren als stereotyp technikfern sozialisierte Personen auf schnelle Bedienung und vertrauen für Einrichtung und Wartung in der Regel auf die Technikkompetenz männlich sozialisierter Personen im eigenen privaten oder beruflichen Umfeld. Denn sie verfügen aufgrund ihrer Doppel- und Dreifachbelastung sowieso über zu wenig Zeitressourcen (Stichwort Carekrise). Frauen werden also dazu gebracht, statt auf die Sicherheit digitaler Dienste auf männliche Partner zu vertrauen.109
Gleichzeitig sind Männer als stereotyp technikaffin sozialisierte Personen eher bereit, erhebliche Zeitressourcen für die Aneignung von Wissen über Funktionsweise und Umfang digitaler Dienste aufzuwenden. Entsprechend übernehmen sie das digitale Gerätemanagement, vergeben und verwalten Zugangsrechte und entscheiden über datenschutzrechtliche Einwilligungen. Dabei werden sie durch Werbestrategien dazu verführt, digitale Selbstoptimierungs- und Überwachungstechnik im privaten Umfeld einzusetzen (= Verführung zu Überwachung durch Gelegenheit).110
Die Gestaltung der Nutzung digitaler Dienste erfolgt faktisch durch Männer, aber ohne dass es dabei zu einem informierten Einwilligungsmanagement kommt. Gerade im Privatbereich werden datenschutzrechtliche Einwilligungen nicht nur uninformiert, sondern haushaltsbezogen für Frauen und Kinder mit ausgesprochen, um smarte Devices überhaupt betreiben zu können. Es ist ein offensichtlicher Denkfehler, der hier rechtspolitisch passiert. Denn Vertrauen und Transparenz sollten sich in einem Rechtsstaat bei Nutzung rechtlich zulässiger Systeme eigentlich gegenseitig ausschließen. Es gilt:
wer auf die Rechtmäßigkeit eines digitalen Systems vertrauen kann, braucht keine Transparenz im Einzelfall mehr herzustellen;
nur wer nicht vertraut, braucht Transparenz.
Dass die digitalen Dienste der Tech-Unternehmen weiter in großem Umfang genutzt werden, liegt daran, dass zurzeit Alternativen fehlen, um gesellschaftlich digitale Teilhabe insbesondere auf dem Erwerbsarbeitsmarkt oder im sozialen Umfeld sicherzustellen. Alternativen Lösungen wird keine ausreichende Reichweite zugetraut. Unverzichtbar bleibt es, von den Tech-Unternehmen Transparenz gegenüber der Gesellschaft als solcher einzufordern. Über Regulierung, Zertifizierungen, Begrenzungen und Verbote sind Standards für alle sicherzustellen, in denen auch Frauen mitgedacht sind, und auf die alle Menschen bei der Nutzung vertrauen können.
- Koalitionsvertrag zwischen CDU, CSU und SPD „Verantwortung für Deutschland“, https://www.koalitionsvertrag2025.de. (Letzter Zugriff auf alle genannten Webseiten: Oktober 2025). ↩
- Koalitionsvertrag a. a. O. Fn. 1, S. 51, Rn. 1643. ↩
- Koalitionsvertrag a. a. O. Fn. 1, S. 56 ff., Rn. 1775 ff. ↩
- Koalitionsvertrag a. a. O. Fn. 1, S. 101 ff., Rn. 3219 ff.; s. dazu djb-Stellungnahme zum Koalitionsvertrag (IX. Digitales) v. 7.5.25, www.djb.de/presse/stellungnahmen/detail/st25-17. ↩
- Wenn in diesem Text die Bezeichnung Frauen/weiblich bzw. Männer/männlich benutzt wird, bezieht sich diese auf die strukturellen und stereotypen gesellschaftlichen Rollen. In diesem Kontext sind als „weiblich“ gelesene Personen besonderen Benachteiligungen und Risiken ausgesetzt. ↩
- Forderungen an die erste Digitalministerkonferenz, Bündnis F5 2024, https://buendnis-f5.de/publikationen/2024-04-18-forderungen-dmk; Forderungspapier „Brücken zwischen Ist und Soll“, Netzforma e.V./Polis180 e.V. 2024 , https://netzforma.org/polis-paper; Gundlach/Hullin, Vier Missionen für mehr digitales Gemeinwohl, reframetech 15.7.2024 auf https://www.reframetech.de/2024/07/15/strategie-update-von-reframetech-vier-missionen-fuer-mehr-digitales-gemeinwohl. ↩
- Bündnis F5 a. a. O. Fn. 6, S. 10, die Forderung nach „Vielfalt im digitalen Ehrenamt“ verschleiert, dass die gesamte technische Struktur des Internets faktisch zwar von gemeinnützigen Organisationen international verwaltet wird, diese aber ALLE männlich dominiert sind, Überblick bei von Westernhagen, c´t 13/2025, S. 122. ↩
- BMFSFJ (Hrsg.) Dritter Gleichstellungsbericht (GlB) „Digitalisierung geschlechtergerecht gestalten“, Berlin 2021, https://www.dritter-gleichstellungsbericht.de; s. dazu Stelkens, RuP 3/2021, S. 1 ff.; dies., djbZ 2021, S. 147 ff.; dies., STREIT 2021, S. 85 ff. ↩
- S. dazu Gieselmann, c´t 20/2025, S. 15 ff., Friedrich, c´t 20/2025, S. 22 ff. und Trinkwalder, c´t 20/2025, S. 26 ff. zum Titelthema „IT-Giganten außer Kontrolle“. ↩
- Darunter wird sowohl die Digitalisierung von Entscheidungsprozessen als auch die Steuerung von Digitalisierungsprozessen selbst verstanden, zum Begriff s. z. B. auf https://zevedi.de/themen/digigov; zum Begriff mit Ausführung der Verknüpfung staatlicher Governance mit der allg. Transformation der Gesellschaft durch die Digitalisierung: Stemmer, Digitale Governance, Fraunhofer-Institut für Offene Kommunikationssysteme, Berlin 2016, https://publica-rest.fraunhofer.de/server/api/core/bitstreams/13996be9-6d75-4228-9e03-df34c8db908d/content. ↩
- Digital Gender Gap, Initiative D21 e.V. 2020, https://initiatived 21.de/publikationen/digital-gender-gap. ↩
- Digital Gender Gap a. a. O. Fn. 11, S. 7, zu aktuellen Ergebnissen deutschlandweit s. Digital Skills Gap 2025, Initiative D21 e.V. 2025, S. 8, https://initiatived21.de/publikationen/digital-skills-gap; international s. The Gender Snap Shot 2025, UN Women, New York 2025, Action One, S. 5, https://unstats.un.org/sdgs/gender-snapshot/2025/GenderSnapshot2025.pdf. ↩
-
- GlB. a. a. O. Fn. 8, S. 90/91.
- Prasad (Hg.) Geschlechtsspezifische Gewalt in Zeiten der Digitalisierung, Bielefeld 2021; Rezension Stelkens, STREIT 2022, S. 184 ff. ↩
- Koalitionsvertrag a. a. O. Fn. 1, S. 72, Rn. 2333 Digitalpakt 2.0., S. 103, Rn. 3284 Digitalpakt Alter. ↩
- Im Rahmen der vom BMWE geförderten Initiative de.digital „Digital für alle“ macht die DFA gGmbH jedes Jahr eine „Studie zur digitalen Teilhabe“, die nach allen möglichen Kriterien, aber nicht nach Geschlecht aufgeschlüsselt ist, s. aktuell auf https://digitaltag.eu/studie. ↩
- Zum Grundrechtschutz in der datengetriebenen Gesellschaft siehe Guijarro Santos, „Effiziente Ungleichheit“, in: Netzforma e.V. (Hg.) „Wenn KI, dann feministisch“, Berlin 2020, S. 47 ff. auf https://netzforma.org/publikation-wenn-ki-dann-feministisch-impulse-aus-wissenschaft-und-aktivismus. ↩
- Haas/Mollen, „Digital Autonomy Policy Brief – #4 Digitale Selbstbestimmung“, 2021 auf https://algorithmwatch.org/de/digital-autonomy-policy-brief-4. ↩
- Einen umfassenden und kritischen Überblick zum Begriff hat das Weizenbaum-Institut 2024 veröffentlicht, https://fundamentals.weizenbaum-institut.de/digitale-souveraenitaet; grundlegend Augsberg/Gehring (Hg.), „Datensouveränität“, Frankfurt 2022. ↩
- Unter dieser Bezeichnung sehr gut als Anleitung zur Selbstermächtigung in der Digitalisierung das Buch der Netzfeministin und Philosophin Seemon, Digitale Mündigkeit, Bielefeld 2023; s. dazu auch die zivilgesellschaftliche Initiative Digitalcourage, https://digitalcourage.de. ↩
-
- GlB a. a. O. Fn. 8, S. 153; krit. zur aktuellen Bildungspolitik s. die „Stellungnahme zum Koalitionsvertrag 2025“ des Bündnisses für freie Bildung auf https://buendnis-freie-bildung.de/2025/05/06/stellungnahme-zum-koalitionsvertrag-2025; Menhard, „Mit Künstlicher Intelligenz gegen die Bildungsmisere“, netzpolitik.org 19.10.24, https://netzpolitik.org/2024/kultusministerkonferenz-mit-kuenstlicher-intelligenz-gegen-die-bildungsmisere/?via=nl.
-
- GlB a. a. O. Fn. 8, S. 153 ff.
-
- GlB a. a. O. Fn. 8, Analyse der Digitalbranche S. 97 ff.; zu Männerdominanz und Technikzentriertheit s. auch Prietl/Raible, The Politics of Data Science: Institutionalizing Algorithmic Regimes of Knowledge Production, in: Jarke/Prietl/Egbert/Boeva/Heuer/Arnold (Hg.), Algorithmic Regimes, Amsterdam 2024, S. 241 ff.; Armutat/Mauritz/Prädikow/Schulte/Wattenberg, „FIT FÜR KI?“, Bielefeld 2023, https://doi.org/10.57720/3734.
- Ein guter Ansatz war das von 2017 bis 2020 durchgeführte Projekt „Gender. Wissen. Informatik. Netzwerk“ (GEWINN), Dokumentation s. https://www.gender-wissen-informatik.de; grundlegend dazu s. Kempf/Wrede (Hg.), Gender-Effekte: Wie Frauen die Technik von morgen gestalten, Bielefeld 2017. ↩
- Das Projekt MINT4 (Berliner Chancengleichheitsprogramm: 2013-2016 und 2017-2020) hatte entsprechende Inhalte bei Informatikstudiengängen an der HWR Berlin eingeführt. ↩
- „Digitaler Datenputz“ benennt die Corporate Digital Responsibility-Initiative (CDR) seit 2023 eine Daten-Audit-Fortbildungsveranstaltung, die bisher immer von Frauen gehalten wurde, https://cdr-initiative.de/news/digitaler-datenputz-neuauflage-2025-2. ↩
- ELSA: Elektronisches System zur Aktenverwaltung. ↩
- VERA: Verfahrensübergreifende Recherche- und Analyseplattform (Bayern). ↩
- GRETA: Gemeinsames Register- und Erfassungssystem für die Transparenz von Abfall. ↩
- Zum Geschlechterbias in der digitalen Weiterbildung s. DIAS 2/2025 zum Schwerpunktthema „Qualifizierung in der digitalen Transformation“. ↩
- S. dazu mit gutem Überblick auch zu den anfänglich gerade von Frauen in das Internet gesetzten Hoffnungen und feministischen Befreiungsdiskussionen Schmidt, Netzpolitik, Opladen, Berlin, Toronto 2021; dazu Rezension Stelkens, STREIT 2021, S. 135 ff. ↩
- Mit Schwerpunkt auf Hate Speech siehe z. B. aktuell die zivilgesellschaftlichen Initiativen Das NETTZ auf www.das-nettz.de, HateAid auf https://hateaid.org; zu den Anfängen des politischen Diskurses Stelkens, djbZ 2019, S. 204 ff., grundlegend Kaspar/Gräßer/Riffi (Hg.), „Online Hate Speech – Perspektiven auf eine neue Form des Hasses“, Marl 2017. ↩
- Prasad a. a. O. Fn. 14; zur Geschlechterdimension digitaler Gewalt s. Ballon, STREIT 2021, S. 147 ff.; Stelkens, STREIT 2019, S. 3 ff., dies. STREIT 2016, S. 147 ff. ↩
- EU-Verordnung 2022/2065 v. 19.10.22 über einen Binnenmarkt für digitale Dienste. ↩
- Melde- und Abhilfeverfahren Art. 16 DSA. ↩
- Zusätzliche Verpflichtungen für Anbieter von sehr großen Online-Plattformen und sehr großen Online-Suchmaschinen: Art. 33-43 DSA. ↩
- S. dazu Rudl, „So steht es um die Aufsicht des Digital Services Act“, netzpolitik.org 14.2.25 https://netzpolitik.org/2025/liberties-studie-so-steht-es-um-die-aufsicht-des-digital-services-act. ↩
-
- GlB a.a.O, Fn. 8, S. 197 ff.; s. dazu aktuell auch die Positionierungen des djb auf www.djb.de/fokusthemen/digitale-gewalt.
- Bauer/Hartmann/Prasad, Einleitung, in: Prasad a. a. O., Fn. 14, S. 9 ff. (10). ↩
- S. dazu Klappheck „Was bedeutet feministische Cybersecurity?“, 30.8.25 auf www.gwi-boell.de/de/2024/08/30/was-bedeutet-feministische-cybersecurity. ↩
- 2024 startete im BSI zumindest eine erste Vernetzungsinitiative zum Thema „Digitale Gewalt im sozialen Nahbereich“, fast alle Befragten wünschen sich Hilfe bei digitaler Gewalt (97%), ein 1. Ergebnisbericht liegt vor auf www.dialog-cybersicherheit.de/storage/uploads/ws24-endprodukte/2024ErgebnisberichtDigitale-Gewalt.pdf. ↩
- Koch/Voggenreiter/Steinert, „Angegriffen & alleingelassen“, Studie i.A. v. HateAid, Berlin 2025 auf https://hateaid.org/wp-content/uploads/2025/01/hateaid-tum-studie-angegriffen-und-alleingelassen-2025.pdf. ↩
- djb-Stellungnahme „Das Netz als antifeministische Radikalisierungsmaschine“ v. 9.9.21 auf www.djb.de/presse/stellungnahmen/detail/st21-18; Scholz, Männlichkeitsforschung, Bielefeld 2025; Ebner, Radikalisierungsmaschinen, Berlin 2019. ↩
- Stelkens, djbZ 2025, S. 31/32; Völzmann, STREIT 2022, S. 158 ff. ↩
- S. dazu z. B. Liesegang/Budl, „Meta goes MAGA“, netzpolitik.org 8.1.25 https://netzpolitik.org/2025/zuckerbergs-kehrtwende-meta-goes-maga. ↩
- S. dazu „Digitale Gewalt ernst nehmen! Forderungen aus der deutschen Zivilgesellschaft“ 2024 auf https://ein-team.org/wp-content/uploads/2024/11/241113_Forderungspapier-DigitaleGewalt.pdf; „bff:aktiv gegen digitale Gewalt“ auf www.frauen-gegen-gewalt.de/de/aktionen-themen/bff-aktiv-gegen-digitale-gewalt.html; HateAid zu digitaler Gewalt auf https://hateaid.org/publikationen; djb zu digitaler Gewalt auf www.djb.de/fokusthemen/digitale-gewalt; KI-gestützte Tools gegen Gewalt: „Lizzy“ auf https://de.frontline100.com, „Maya“ auf https://myprotectify.org ↩
- Stelkens a. a. O., Fn. 44; s. dazu auch die Initiative Digitalpolitik.de und Beckedahl, „Plattformen und Journalismus: Die Entkernung der Demokratie“, 13.6.25 auf www.digitalpolitik.de/plattformen-und-journalismus-die-entkernung-der-demokratie; ders., „Für ein souveränes Internet: Warum die Politik jetzt das Fediverse fördern muss“, 29.9.25 auf https://digitalrechte.de/news/fuer-ein-souveraenes-internet-warum-die-politik-jetzt-das-fediverse-foerdern-muss. ↩
- Siehe dazu djb-Policy Paper „Bekämpfung bildbasierter sexualisierter Gewalt“ v. 7.6.23 auf www.djb.de/presse/stellungnahmen/detail/st23-17?actbackPid=71&cHash=79cef0801e7961881c9eaaf3ec513eef. ↩
- Ein digitales Gewaltschutzgesetz soll in dieser Legislaturperiode kommen, Koalitionsvertrag a. a. O. Fn. 1, S. 91, RZ. 2936 ff.; Gesetzentwurf Stand 9.12.2024, www.bmjv.de/SharedDocs/Gesetzgebungsverfahren/DE/2023DigitaleGewalt.html. ↩
- Criado Perez, „Unsichtbare Frauen“, München 2020; 3. GlB a. a. O. S. 89; mittlerweile umfassend auch Wikipedia zum Stichwort Gender Data Gap mit vielen weiteren Nachweisen https://de.wikipedia.org/wiki/Gender-Data-Gap#cite_note-1. ↩
- Grundlegend war hier die Entdeckung des erhöhten Herzinfarkt-Sterberisikos bei Frauen, s. Liu/Dipietro/Mager, „Women’s involvement in clinical trials: historical perspective and future implications“ auf https://pmc.ncbi.nlm.nih.gov/articles/PMC4800017. ↩
- S. dazu mit fortlaufend aktuellen Beispielen die Website von AlgorithmWatch https://algorithmwatch.org/de; Spieker gen. Döhmann/Towfigh, Automatisch benachteiligt, Berlin 2023; Orwat, Diskriminierungsrisiken durch Verwendung von Algorithmen, Berlin 2019, beides abrufbar auf der Website der Antidiskriminierungsstelle des Bundes www.antidiskriminierungsstelle.de; zu genderbasierter Diskriminierung s. Grosz/Greiff, STREIT 2024, S. 14 ff.; Lütz, ERA Forum Volume 23, Issue 1 (2022) auf https://link.springer.com/article/10.1007/s12027-022-00709-6. ↩
- Grundlegend zur strukturellen datengetriebenen Diskriminierung s. Netzforma e.V., „Wenn KI, dann feministisch“, a.a.O. Fn. 17. ↩
- EU-Kommission, COM(2025) 501, 21.5.25, S. 8, https://commission.europa.eu/document/7fd9c846-b894-4f9f-b164-3b926d1b264b_en; s. zur Kritik den offenen Brief „Unser Schutz wird aus Profitgründen verkauft“, S. 2 „digitale Rechte“ auf https://germany.econgood.org/wp-content/uploads/sites/8/2025/09/Germany.pdf; zum Genderaspekt djb-Stellungnahme zur Evaluierung der DSGVO v. 8.2.24 auf www.djb.de/presse/stellungnahmen/detail/st24-03; zur Ineffizienz der DSGVO Steiner, c’t 12/2025, S. 116 ff. ↩
- EU-Verordnung 2022/868 über europäische Daten-Governance. ↩
- EU-Verordnung 2023/2854 über harmonisierte Vorschriften für einen fairen Datenzugang und eine faire Datennutzung. ↩
- EU-Verordnung 2024/1689 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz. ↩
- S. djb-Stellungnahme zum Data-Act-Entwurf v. 23.2.22 auf www.djb.de/presse/stellungnahmen/detail/st22-07; djb-Stellungnahme zur KI-VO-Entwurf v. 10.5.22 auf www.djb.de/presse/stellungnahmen/detail/st22-07; Guijarro Santos, ZfDR 2023, S. 23. ↩
- Gieselmann, Bader, Trinkwalder, c´t 11/2024, S. 146 ff. ↩
- Der Europäische Gerichtshof hat jüngst Grenzen gesetzt für das Datensammeln aus Quellen und zu Zwecken, die für die Nutzer:innen schwerlich identifizierbar sind, EuGH Urteil v. 4.10.24, C-446/21 (Schrems/Meta); für strengere Regulierung s. Jo Pesch, „Schluss mit der Zögerlichkeit!“, netzpolitik.org 17.9.25 https://netzpolitik.org/2025/datenschutz-und-ki-schluss-mit-der-zoegerlichkeit/?via=nl; zur vertraglichen Absicherung Heidrich, c´t 20/2024, S. 160 ff. ↩
- Ruschemeyer, „Schattenwirtschaft Datenhandel“ v. 14.8.24 auf Verfassungsblog https://verfassungsblog.de/datenhandel-eu-dsgvo-gdpr-datatrade; dies./Mühlhoff, „Daten, Werte und der AI-Act“ v. 15.12.23 auf Verfassungsblog https://verfassungsblog.de/daten-werte-und-der-ai-act; dies., MMR 2021, S. 942 ff. ↩
- Zum sog. Gender-AI-Gap s. die Initiative FemAI auf https://fem-ai.eu u. das Institute for Research on Male Supremacism (IRMS) auf https://www.theirms.org; Goetz/Mayer, „Global Perspectives on Anti-Feminism“, Edinburgh 2023; die Biases in den Daten beschränken sich auch nicht auf den Gender Bias, mehr als 90 % der Datensätze stammen aus Europa und Nordamerika, weniger als vier Prozent aus Afrika, s. dazu Heikkilä/Arnett, „This is where the data to build AI comes from“, MIT Technology Review, 18.12.24 auf www.technologyreview.com/2024/12/18/1108796/this-is-where-the-data-to-build-ai-comes-from. ↩
- S. Fn. 43. ↩
- S. Fn. 43. ↩
- Gebauer/Windheuser, „Strukturierte Datenanalyse, Profiling und Geschäftsregeln“, in: Hildebrand/Mielke/Gebauer (Hg.) „Daten- und Informationsqualität“, Wiesbaden 2025 (6. Aufl.), S. 87 ff.; zur Übernahme in die jurist. Definition Sarre/Pruss, in: Auer-Reinsdorff/Conrad (Hg.) „IT- und Datenschutzrecht“, München 2019 (3. Aufl.), § 2 Rn. 53, 54. ↩
-
- GlB a. a. O. Fn. 8. S. 98 ff.; allg. zur aufbereitenden Datenanalyse s. Drehling, c`t 11/2024, S. 14 ff.
- Oertelt-Prigione „Geschlechtersensible Medizin“, Berlin 2024 auf https://www.bundesstiftung-gleichstellung.de/wp-content/uploads/2025/03/Gendermedizin_Langfassung_25032025.pdf. ↩
-
- GlB a. a. O. Fn. 8, S.100.
- Heidrich/Bauer/Krupka, „Future Skills: Ansätze zur Vermittlung von Data Literacy in der Hochschulbildung“, Berlin 2018 auf https://gi.de/fileadmin/GI/Hauptseite/Aktuelles/Aktionen/Data_Literacy/HFD_AP37_DALI_Studie_2018-09.pdf; s. dazu auch das laufende Data-Literacy-Forschungsprojekt des Weizenbaum-Instituts, www.weizenbaum-institut.de/projekte/data-literacy/. ↩
- Erwägungsgrund 19 zum Data-Act/Fn. 56. ↩
- Art. 4 KI-VO/Fn. 57. ↩
- Schüller/Koch/Rampelt, „Data-Literacy-Charta“, Stifterverband, Berlin 2021 (Version 1.2) auf www.stifterverband.org/charta-data-literacy. ↩
- Open Data sollen frei zur Verfügung stehen, um Produkte und Dienstleistungen mittels digitaltechnischer Systeme im Sinne des Gemeinwohls innovativ zu gestalten, grundlegend das „Open Data Handbuch“ der Open Knowledge Foundation (OKF) auf https://opendatahandbook.org; zur Open-Data-Strategie des Bundes auf https://opendata.bund.de; fortlaufende Projekte in Deutschland bei der Open Knowledge Foundation Deutschland auf https://okfn.de. ↩
- S. z. B. das Projekt Aequitas, ein Open‑Source-Fairness-Toolkit, das es ermöglicht, systematisch Gender Bias zu identifizieren, auf www.aequitas-project.eu; zum entsprechenden Microsoft-Projekt s. Sengupta/Maher/Groves/Olieman „GenBiT: measure and mitigate gender“ auf www.microsoft.com/en-us/research/wp-content/uploads/2021/10/MSJARGenbitFinalVersion-616fd3a073758.pdf; s. auch Shrishak, „Bias evaluation“, European Data Protection Board (EDPD), Brüssel 2024 auf www.edpb.europa.eu/system/files/2025-01/d1-ai-bias-evaluationen.pdf. ↩
- Ein positiver Versuch, dies abzubilden, ist z. B. die Initiative #closeecondatagap mit dem Ziel, speziell die ökonomischen Ungerechtigkeiten zwischen den Geschlechtern aufzuzeigen und zu beziffern sowie das Schließen der bestehenden Datenlücken einzufordern, https://www.closeecondatagap.com/. ↩
- S. dazu die Studie „Mapping Gender Data Gaps“, die mit einer Kombination aus bestehenden und neuen Datenquellen den Gender-Data-Gap schließen will als neue Quelle für geschlechtsspezifische Daten, https://data2x.org/wp-content/uploads/2019/05/Data2X_MappingGenderDataGaps_FullReport.pdf. ↩
- Denkansätze wie Linda Scotts „XX-Ökonomie“ verweisen auf die großen Chancen, die in umfassend geschlechterdiversifizierten Daten liegen, sie fordert eine konsequente Auswertung geschlechterdifferenzierter Datensets mit weitreichender Neubewertung unserer Ökonomie, Scott „Das weibliche Kapital“, München 2020; für Deutschland interessant van Heesen, „Was Männer kosten“, München 2022. ↩
- Eine EU-Verordnung soll Verbraucher:innen durch strengere Regeln gegen manipulative Designs (= Dark Patterns) und undurchsichtiges Tracking schützen. Bislang gibt es nur eine Ankündigung der EU-Kommission zur Stoßrichtung des Gesetzes, das Vorhaben der zuvor geplanten ePrivacy-Verordnung wurde 2025 offiziell aufgegeben, Ankündigung s. auf https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/13413-Digitale-Fairness-Eignungsprufung-des-EU-Verbraucherrechts_de; s. Henning, „EU-Gesetz soll Internet verbraucherfreundlicher machen“, netzpolitik.org, 20.11.2024, https://netzpolitik.org/2024/digital-fairness-act-eu-gesetz-soll-internet-verbraucherfreundlicher-machen/. ↩
- Spieker gen. Döhmann/Towfigh a. a. O. Fn. 52, s. dazu die Initiative Bündnis AGG-Reform jetzt auf https://agg-reform.jetzt. ↩
- S. dazu Ruschemeyer, MMR a.a.O. Fn. 61. ↩
- Dass eine solche Übersetzung grundsätzlich immer Informationsverlust bedeutet, ist eine Grundproblematik digitaler Transformation der Gesellschaft. ↩
- In den USA, wo bereits sehr viele solche Systeme angewendet werden, entstehen skurrile Szenarien, s. dazu Paresh, „Who’s to Blame When AI Agents Screw Up?“ Wired Magazin 22.5.25, https://www.wired.com/story/ai-agents-legal-liability-issues/?utm_source=substack&utm_medium=email. ↩
- S. Fn. 57. ↩
- Begriffsdefinition in Art. 3 Nr.1 KI-VO, s. zur Diskussion Wendehorst in Martini/Wendehorst, KI-VO, Berlin 2024 (1. Aufl.), Art. 3, Rn. 3 ff. ↩
- Kapitel V. KI-VO „Allzweck-KI-Modelle“ mit zwei eigenen Risiko-Klassen, in die hohe Risikoklasse fallen nur große digitale Dienste wie z. B. ChatGPT mit der Gefahr „systemischer Risiken“; EU-Praxisleitfaden für GPAIs s. https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai. ↩
- S. Nachweise in Fn. 52, zu den Auswirkungen des Gender-Bias auf die KI-Akzeptanz bei Frauen s. Armutat/Mauritz/Prädikow/Schulte/Wattenberg, a. a. O. Fn. 23, zu den Gefahren von GPAIs für das Gemeinwohl s. Washington, „Fragile Foundations: Hidden risks of Generative AI“, Gütersloh 2025, https://www.bertelsmann-stiftung.de ↩
- „1. Kranzbergsches Gesetz: Technik ist weder gut noch böse; noch ist sie neutral.“, Kranzberg „Technology and History: ‚Kranzberg’s Laws‘. Technology and Culture. 27 (3), 1986 auf https://www.cs.ucdavis.edu/%7Ekoehl/Teaching/ECS188/PDF_files/Kranzberg.pdf; s. dazu auch Jonas „Das Prinzip Verantwortung“, Frankfurt 1979; grundlegend zur Geschlechterfrage Wajcman „Technik und Geschlecht“, New York, Frankfurt 1994. ↩
- S. dazu c´t 11/2024 zum Schwerpunktthema „KI-Spezial“. ↩
- Zum Begriff s. Siebert, „Halluzinationen von generativer KI und großen Sprachmodellen (LLMs)“ 20.9.24 auf Fraunhofer IESE https://www.iese.fraunhofer.de/blog/halluzinationen-generative-ki-llm/. ↩
- S. Fn. 52. ↩
- Bird/Schepers, „Gig Economy: Wie KI-Training einen globalen Schwarzmarkt für Clickwork-Jobs erschaffen hat“, 22.5.25 auf Algorithm Watch https://algorithmwatch.org/de/schwarzmarkt-fur-clickwork-jobs; s. auch die Initiative Data Workers auf https://data-workers.org; mit historischer Perspektive Merchant, „Blood in the machine“, New York, Boston, London 2023. ↩
- S. dazu das Forschungsprojekt „Human in the Loop“ am HIIG Berlin auf https://www.hiig.de/project/human-in-the-loop/. ↩
- Zu notwendigen menschlichen Kompensationsleistungen für Imperfektionen betrieblicher KI-Investitionen siehe Klur/Rieger/Nies, DIAS 1/2025, S. 3 ff. ↩
- S. dazu Lenzen, Künstliche Intelligenz, München 2024 (3. Aufl.). ↩
-
- GlB a. a. O. Fn. 8, S. 100; Lücking, „Wie algorithmische Entscheidungssysteme gesellschaftliche Machtverhältnisse (re)produzieren“, in: Netzforma e.V. (Hg.) a. a. O. Fn. 17, S. 65 ff.
- S. dazu Kastl, „Die Abkürzung“, netzpolitik.org 14.9.25 https://netzpolitik.org/2025/degitalisierung-die-abkuerzung/?via=nl; Menhard, „Es liegt an uns, ob wir KI Macht über uns geben“, netzpolitik.org 30.8.25 https://netzpolitik.org/2025/interview-es-liegt-an-uns-ob-wir-ki-macht-ueber-uns-geben/?via=nl; vertieft Bartl, „Krise und technologischer Solutionismus“, in: Wagener/Stark (Hg.), Die Digitalisierung des Politischen, Wiesbaden 2023. ↩
-
- GlB a. a. O. Fn. 8, S. 87; s. dazu auch die „Resolution des 47. FJT zu den bundes- und europarechtlichen Vorhaben im Digitalrecht“, STREIT 2023, S. 145 und die Grundsätze „Feministische Digitalpolitik“ bei Superrr Lab https://feministtechpolicy.org; alternative feministische Stimmen in der KI-Ethik listet auf der Artikel von Dand, „The AI Ethics Revolution“ auf Medium v. 4.4.23 https://medium.com/women-in-ai-ethics/the-ai-ethics-revolution-a-timeline-276593eef416; eine Liste mit 100+ AI Tech Ethics Books von Frauen und nicht-binären Personen findet sich auf https://docs.google.com/spreadsheets/d/1HbSWS9k3lhrZ7jwCiPVOVUNHJwjrll2UGL8IvKr_rRU/edit?gid=1098614179#gid=1098614179.
- Oliveira, „Gender und Digitalisierung: Wie Technik allein die Geschlechterfrage nicht lösen wird“, HBS Working Paper, Düsseldorf 2017, www.boeckler.de/de/faust-detail.htm?sync_id=HBS-006640. ↩
- Wikimedia Deutschland, „Generative KI für die Verwaltung?“,Berlin 2025, https://upload.wikimedia.org/wikipedia/commons/0/0e/Generative_KI_f%C3%BCr_die_Verwaltung%3F_2025.pdf. ↩
- S. dazu die Initiative Save Social auf https://savesocial.eu und die Initiative Allianz für die resiliente Informationsgesellschaft auf https://resiliente-informationsgesellschaft.org; Mühlhoff, „Künstliche Intelligenz und der neue Faschismus“, Ditzingen, 2025; Andree „Big Tech muss weg! – die Digitalkonzerne zerstören Demokratie und Wirtschaft“, Frankfurt 2023. ↩
- S. dazu Bria/Timmers/Gernone, „EuroStack – A European Alternative for Digital Sovereignty“, Gütersloh 2025, abrufbar auf https://www.euro-stack.info; zum geplanten „Deutschland-Stack“ die Modernisierungsagenda des BMDS, Berlin 2025, https://bmds.bund.de/fileadmin/BMDS/Dokumente/Modernisierungsagenda_barrierefrei.pdf; zum nationalen Once-Only-Technical-System (NOOTS) https://bmi.usercontent.opencode.de/noots. ↩
- Es gibt viele Versuche, die Black Boxes der KI zu knacken – Stichwort explainable KI/causal-ML – sowie insgesamt Prozesse zu implementieren, die bias-lastige Systeme gegen trainieren, s. dazu fortlaufend die Website des Zentrums für vertrauenswürdige künstliche Intelligenz auf www.zvki.de oder des Instituts f. Business Analytics der Universität Ulm auf www.erklaerbare-ki.de; auch Wagner, „Causal AI – A Visor for the Law of Torts“, in: U. Chi. L. Rev. Online 12.6.24 https://lawreview.uchicago.edu/sites/default/files/2024-12/Wagner_Causal%20AI.pdf; vertieft Barocas/Hardt/Narayanan, „Fairness and Machine Learning: Limitations and Opportunities“, Cambridge 2019. ↩
- Das Print-PR-Magazin „Aufbruch“ der Firma Google Ireland Ltd. wirbt als kostenloses Supplement in allen großen Tageszeitungen für Vertrauen in die unternehmenseigenen Anwendungen und ist vermutlich Europas auflagenstärkste Zeitschrift. ↩
- Zivilgesellschaftlichen Widerstand in Deutschland bündeln wollen u. a. die Initiative Digitalpolitik.de, www.digitalpolitik.de, das Bündnis F5 https://buendnis-f5.de und die online-Publikation netzpolitik.org https://netzpolitik.org, s. auch die jährliche Veranstaltung re-publica https://re-publica.com/de; vertieft Zuboff, „Das Zeitalter des Überwachungskapitalismus“, Frankfurt/New York 2018; aus europäischer Perspektive Hofstetter, „Sie wissen alles“, München 2014. ↩
- S. Fn. 78. ↩
- S. dazu das gemeinsame Positionspapier von Wikimedia u. a. NGOs auf www.ccc.de/system/uploads/361/original/PositionpersonalisierteWerbung_DE.pdf; Stelkens/Wanser, STREIT 2024, S. 22. ↩
- Einwilligungsvoraussetzungen des Art. 7 DSGVO; zur Problematik Specht-Riemenschneider, „Datenschutzrecht als Verbraucherschutzrecht“, in: Buchner/Petri (Hg.), „Informationelle Menschenrechte und digitale Gesellschaft“, Tübingen 2023, S. 77 ff. ↩
- Mit entsprechender Kritik und zu einem alternativen Verbraucher:innenschutz siehe das Policy Paper „DIGITALE FAIRNESS Verbraucher*innenschutz gerecht und zukunftsfähig gestalten“ von SuperrrLab auf https://superrr.net/media/pages/projects/forum-digital-fairness/9c957db06e-1734347932/digital-fairness-thesenpapier.pdf. ↩
- Stelkens, STREIT 2021, S. 31 ff.; dies., STREIT 2019, S. 3 ff. ↩
- Tanczer, „Das Internet der Dinge“, in: Prasad, a. a. O., Fn. 14, S. 205 ff.; Seemon, „Das Gewaltpotential künstlicher Intelligenz“ in Netzforma a.a.O. Fn. 17 , S. 31 ff. (42). ↩