direkt zum Inhalt springen

direkt zum Hauptnavigationsmenü

Sie sind hier

TU Berlin

Inhalt des Dokuments

"Ich würde erröten, wenn ich könnte...", * Wie wird künstliche Intelligenz geschlechtergerecht?

Foto von der Veranstaltung "Wie wird künstliche Intelligenz geschlechtergerecht?"
Lupe

*„I’d blush if I could”, war die Antwort von Siri, der Sprachassistenz-Software von Apple, wenn Nutzer*innen ihr sagten „Hey, Siri you are a bi***“ und diente als Titel einer UNESCO-Studie (2019) zur Überwindung geschlechtsspezifischer Unterschiede bei digitalen Kompetenzen.

Bericht zur Podiumsdiskussion und Ausstellung des Comic-Essay „We need to talk, AI.“ vom 6. Februar 2020

Veranstaltungsflyer

Sprachassistenz-Systeme mit weiblich wirkenden Namen und Stimmen, die auf sexistische Beleidigungen mit verharmlosenden Witzen reagieren und Recruiting- Algorithmen, die Bewerbungen von Frauen aussortieren, haben eine Diskussion über mehr Gender-Sensibilität bei KI-Entwicklung und -Anwendung ausgelöst. Doch während Zuhause jeder selbst entscheiden kann, ob Alexa einzieht und das Smartphone per Sprachbefehl bedient werden soll, sieht die Situation im öffentlichen Raum und in der Arbeitswelt anders aus.

Dass geschlechtsbasierte Diskriminierung nicht automatisch vor dem beruflichen Alltag halt macht, ist eigentlich wenig überraschend. Dass geschlechtsspezifische Auswirkungen von KI auf die Arbeitswelt selbst im KI-Wissenschaftsjahr 2019 kaum Gegenstand von Veranstaltungen wurden, überrascht dagegen schon. Vielleicht war deswegen die Resonanz auf die am 6. Februar von der Kooperationsstelle Wissenschaft und Arbeitswelt der Technischen Universität Berlin organisierte Abendveranstaltung zu diesem Thema so groß: Über 70 Gäste, darunter Frauenbeauftragte, Personal- und Betriebsrät*innen, Studierende,  und erfreulich viele Männer, folgten der Einladung zu Podiumsdiskussion und anschließendem Empfang mit Ausstellung von Teilen des Comics „We need to talk, AI“, „KI, wir müssen reden.“ von Lena Kadriye Ziyal und  Dr. Julia Schneider.

Auf dem Podium betonten die beiden Wissenschaftlerinnen Meike Zehlike und Milagros Miceli eine grundsätzliche Herausforderung für geschlechtergerechte KI: In der Ausbildung von Informatiker*innen spielten sozialwissenschaftliche Perspektiven so gut wie keine Rolle, hier bräuchte es dringend mehr Wissen über die gesellschaftliche Bedingtheit von Daten und den Aufgabenstellungen die mit Hilfe von KI bearbeitet werden sollen. Noch zu sehr sei das Vorurteil verbreitet, dass Algorithmen und Daten neutral seien und somit auch die Entscheidungsprozesse, die auf ihnen basieren. Geschlechtsbezogene Diskriminierung sei dabei noch relativ einfach aufzuspüren, wenn von lediglich zwei Geschlechtern ausgegangen würde. Der häufig propagierten Forderung, Entwicklungs-Teams müssten diverser werden und insbesondere der Hoffnung, mehr Frauen (aktuell sind in Deutschland ca. 16 % der KI-Fachkräfte Frauen) könnten Diskriminierung verhindern, standen die Forscherinnen skeptisch gegenüber. Beides sei wünschenswert aber keinesfalls ausreichend. Die Diskussion um diversere Teams sollte zumindest auch Interdisziplinarität einschließen.

Vanessa Barth von der IG Metall wies darauf hin, dass KI für die Arbeitnehmer*innen auch Chancen biete und nicht vergessen werden dürfe, dass menschliche Intelligenz ebenfalls diskriminiere. Allerdings müsse es rote Linien in Form von rechtlichen Regulierungen geben statt Selbstverpflichtungen von Unternehmen. Dr. Julia Schneider, Co-Autorin des Comic „We need to talk, AI.“ und Volkswirtin plädierte ebenfalls für mehr Regulierung: Entwickler*innen-Teams könnten noch so heterogen und für das Thema Diskriminierung sensibilisiert sein, was auf dem Markt mit Ihren Innovationen passiere sei außerhalb ihrer Kontrolle.

In der anschließenden Diskussion wurde unter anderem deutlich, dass es bereits eindeutige rechtliche Regulierungen gibt, wie das Allgemeine Gleichbehandlungsgesetz, die selbstverständlich auch für KI-basierte Entscheidungsprozesse gelten aber vielleicht nicht allen bekannt seien. Das Problem bei der Einforderung dieser Rechte sei allerdings auch die Intransparenz und Komplexität: Betriebs- und Personalräten könnten sich neben ihren sonstigen Aufgaben kaum in eine so komplexe Materie einarbeiten. Eine Art Beipackzettel zu Risiken und Nebenwirkungen von bestimmten KI-gestützten Programmen könnte Orientierung geben. Wie auch bei Zertifikaten ist hier allerdings zu bedenken, dass KI sich eben gerade durch Lernprozesse auszeichnet, Prüfungen müssten also mindestens in regelmäßigen Zeitabständen wiederholt werden, am besten von einer unabhängigen Stelle. Eine erste Bestandsaufnahme zu Diskriminierungsrisiko und dem bestehenden rechtlichen Regulierungsrahmen für Berlin bietet eine Publikation der Senatsverwaltung für Justiz, Verbraucherschutz und Antidiskriminierung.

 

 

Zusatzinformationen / Extras

Direktzugang

Schnellnavigation zur Seite über Nummerneingabe

Diese Seite verwendet Matomo für anonymisierte Webanalysen. Mehr Informationen und Opt-Out-Möglichkeiten unter Datenschutz.