Internationaler Frauentag: Bures lud zu Veranstaltung “Frauen und KI” ins Parlament

Expert:innen warnen vor diskriminierenden Algorithmen und fordern stärkere Einbeziehung von Frauen in KI-Entwicklungen

Jedes zweite KI-System hat einen “Genderbias”, kann also geschlechtsspezifische Diskriminierung und Vorurteile verstärken und perpetuieren. Das hat eine Studie aus dem Jahr 2022, also noch vor der Präsentation von ChatGPT, ergeben, wie Sabine Theresia Köszegi, Professorin für Arbeitswissenschaft und Organisation an der TU Wien, heute bei einer Veranstaltung im Parlament anlässlich des Internationalen Frauentags berichtete. Grund dafür ist nicht zuletzt die Dominanz der Männer im IT-Bereich. Auch wird KI zunehmend dazu genutzt, um sexuelle Gewalt gegen Frauen, etwa durch KI-generierte Deep Fakes, auszuüben. Laut Recherchen der Journalistin Ingrid Brodnig wurden einschlägige KI-generierte Bilder von Taylor Swift zum Teil mehr als 45 Millionen Mal aufgerufen, bevor das Posting von X (vormals Twitter) entfernt wurde.

Bietet KI aus feministischer Perspektive aber auch Chancen? Und wie kann man das Bewusstsein für Geschlechteraspekte in KI-Algorithmen schärfen und Diskriminierungen gezielt entgegenwirken? Auch darum ging es heute bei der Veranstaltung zum Thema “Frauen und KI – Diskriminierungsfalle oder feministischer Aufschwung”, zu der die Zweite Nationalratspräsidentin Doris Bures ins Hohe Haus geladen hatte. Künstliche Intelligenz werde die ganze Welt verändern, jetzt sei die Zeit, wo man mitbestimmen könne, wie KI die Welt verändere, zitierte Bures in diesem Zusammenhang Mira Murati, die Frau hinter ChatGPT.

Füttere man Maschinen mit Klischees und Rollenbildern, würden Ungleichheiten reproduziert und nicht korrigiert, warnte Bures und nannte als negatives Beispiel den öffentlich heftig diskutierten AMS-Algorithmus, der Männern technikaffine Jobperspektiven vorgeschlagen habe, während Frauen in weibliche Berufe gelenkt worden seien. Vielleicht könne es durch KI aber auch gelingen, “ein goldenes Zeitalter der Gleichberechtigung” einzuläuten. Es brauche auf jeden Fall feministische Mitgestaltung dieser Technologie, ist die Zweite Nationalratspräsidentin überzeugt.

EXPERT:INNEN FÜR STÄRKERE EINBEZIEHUNG VON FRAUEN IN KI-ENTWICKLUNGEN

Das war auch der Tenor der Podiumsdiskussion, an der unter der Moderation der stellvertretenden APA-Chefredakteurin Katharina Schell die KI-Expert:innen Barbara Herbst, Andreas Kraus und Carina Zehetmaier teilnahmen. Sei KI einmal gebaut, sei es schwierig, sie zu verstehen und zu verändern, gab etwa Andreas Kraus, der als Mitgründer von enableYou und feminist AI unter anderem Organisationen berät und KI-Projekte betreut, zu bedenken. Man müsse schon vorher ansetzen und auf Diversität bei der Entwicklung sowie auf allgemeine Machtstrukturen achten. Auch gelte es, die Frage zu stellen, warum und zu welchem Zweck man KI einsetze. Sei man sich des Ziels bewusst, baue man KI ganz anders, ist Kraus überzeugt. Für ihn hat KI für die Gesellschaft als Ganzes erst dann einen Nutzen, wenn sie objektivere, diskriminierungsfreie Entscheidungen treffe. Er nehme wahr, dass Unternehmen zunehmend ein höheres Bewusstsein für ethische Fragen hätten, zumindest nach außen hin, hielt Kraus fest.

KI-Expertin und Unternehmensberaterin Barbara Herbst, Gründerin und Geschäftsführerin von en.AI.ble, ortet einen steigenden Druck auf Unternehmen, den Anteil von Frauen im Bereich der Softwareentwicklung massiv zu steigern. Derzeit gebe es nur sehr wenig Entwickler:innen, hier müsse man ansetzen, betonte sie. Regulierung von KI sei wichtig, genauso wichtig wäre es aber, Algorithmen zu verändern. Dazu brauche es eine nationale Kraftanstrengung von Unternehmen, Sozialpartnerschaft, Politik und Wissenschaft. Dass man KI nicht als Ganzes verstehen könne, sondern nur einzelne Versatzstücke, sei o.k., meinte Herbst, deshalb müsse man sich nicht ohnmächtig fühlen.

Carina Zehetmaier, Gründerin des gemeinnützigen Vereins “Women in AI Österreich”, richtete einen Appell an das – vorwiegend weibliche – Publikum, selbst aktiv zu werden. KI müsse für alle da sein, bekräftigte sie. Wobei es ihr zufolge gerade im KI-Bereich bereits so viele Expertinnen gibt, dass sich niemand mehr traue, Panels rein männlich zu besetzen. Für wichtig erachtet sie es außerdem, Bewusstsein zu schaffen und Kompetenzdefizite zu beheben. KI sei jedenfalls kein Werkzeug oder Tool, das objektive Ergebnisse liefere, vielmehr sei der KI eine gewisse Subjektivität inhärent, machte Zehetmaier geltend. Darüber müsse man sich im Klaren sein. Grundsätzliches Lob äußerte die Expertin für den “AI Act” der Europäischen Union, es sei sinnvoll, bei Regulatorien auf den Anwendungsfall abzustellen. In gewissen Bereichen müssten Algorithmen nachvollziehbar sein.

Von Schell nach einem Wunsch an den Gesetzgeber gefragt, nannte Herbst “Open Innovation”. Es sollten nicht nur Stakeholder gehört werden, sondern alle. Zehetmaier sprach sich dafür aus, Netzwerke wie Women in AI in Entscheidungen einzubeziehen. Kraus würde sich freuen, wenn die Politik KI “positiv framt” und Fördertöpfe, etwa für Startups, danach ausrichtet, dass ethische Prinzipien bei der Entwicklung von KI beachtet werden.

KÖSZEGI ORTET “TEUFELSKREIS DER DIGITALEN CHANCENUNGLEICHHEIT”

Davor hatte Universitätsprofessorin Sabine Theresia Köszegi, Institutsvorständin am Institut für Managementwissenschaften der TU Wien und Leiterin des Fachbereichs Arbeitswissenschaft und Organisation, einen eher ernüchternden Befund gezeichnet. Sie sprach von einem “Teufelskreis der digitalen Ungleichheit”, der beim Umstand beginne, dass Frauen die Hauptlast unbezahlter Arbeit wie Pflege und Kindererziehung trügen, während Männer ihre Karrieren entwickelten. Diese Rollenbilder würden unter anderem dazu beitragen, dass nur 0,5 % der Mädchen Informatik studieren wollten – bei 5 % der Burschen – und nur 5 % der Programmierer:innen weltweit weiblich seien. Segregation bei Bildungsentscheidungen führe zu Segregation in der Berufswelt. Trotz besserer Leistung in Computer Literacy hätten Mädchen außerdem weniger Vertrauen in ihre eigenen Kompetenzen.

KI führe zu einer weiteren Verstärkung der Ungleichheit, verwies Köszegi auf verschiedene Studien. Es würden hauptsächlich Technologien von Männern für Männer entwickelt. Diese würden dem Gender-Gap nicht nur nicht entgegenwirken, sondern diesen sogar verstärken. Schon bevor ChatGPT auf den Markt gekommen sei, habe eine Studie festgestellt, dass jedes zweite KI-System einen Genderbias habe. Dazu kommt laut Köszegi, das Large Language Models wie ChatGPT nicht nur einen offenen, sondern auch einen verdeckten Bias haben. Dieses Problem ist ihrer Ansicht nach nicht in den Griff zu bekommen. Als Gleichstellungsvorbild sieht Köszegi Island: Dort sei es gelungen, die Geschlechterungleichheit stark zu reduzieren, wobei alles damit begonnen habe, dass sich die Isländerinnen einen Tag freigenommen hätten.

BRODNIG SIEHT AUCH ZIVILGESELLSCHAFT UND MEDIEN GEFORDERT

Wie schwierig es ist, gegen pornografische Deep Fakes im Netz anzukämpfen, veranschaulichte die Journalistin und Autorin Ingrid Brodnig. Das Internet sei voll mit Fake-Porno-Bildern, die noch dazu mit einer einfachen Google-Suche leicht gefunden werden könnten. Beschwerden dagegen würden oft zu keiner Reaktion führen.

Das Thema sei aber noch viel größer, betonte Brodnig und verwies auf Recherchen der Washington Post, die mittels Stable Diffusion Bilder erstellen ließ, die vor Rollenklischees nur so strotzten. So seien auf die Bitte, Fotos einer Latina zu erstellen, vor allem Bikinimodells in einschlägigen Posen generiert worden. Mit “Quick Fixes” versuchten die Techkonzerne solchen unerwünschten Ergebnissen zwar entgegenzusteuern, das sei aber keine echte Lösung, meinte Brodnig. Schließlich wisse man nicht, ob diese “Quick Fixes” nicht zu anderen problematischen Ergebnissen führten.

Brodnig appellierte dennoch an das Publikum, Beschwerdemöglichkeiten zu nutzen. Es sei zwar frustrierend, dass das Hinschauen von Zivilgesellschaft, Medien und die Wissenschaft notwendig sei, um Änderungen zu bewirken, man komme aber nicht darum herum, da Technkonzerne Missständen nicht von sich aus begegnen wollten.

Was die Zukunft betrifft, meinte Brodnig, man könnte eine KI entwickeln, die von Vornherein feministisch sei. Jetzt sei jedenfalls der entscheidende Moment, um einzuschreiten. In zwanzig Jahren sei es zu spät. Auch könnte man KI nutzen, um Ungleichheiten zu veranschaulichen, etwa dass Männer deutlich häufiger in Medien zitiert oder dargestellt würden als Frauen. Bei der Entwicklung von APPs könnte man statt Unterhaltung gesellschaftliche Anliegen stärker in den Fokus rücken.

Hoffentlich brauche man in ein paar Jahren nicht ein Gesetz gegen Hass von KI, kommentierte Moderatorin Schell die kritischen Befunde.

Im Anschluss an die Podiumsdiskussion brachte eine KI-generierte Tanz-Performance eines Roboters von H.A.U.S.org dem Publikum die Schnittstelle zwischen Mensch, Computer und Maschine live näher. Zudem stand den Besucher:innen eine Fotobox mit KI-generierten Hintergründen zur Verfügung. (Schluss) gs

HINWEIS: Fotos von dieser Veranstaltung sowie eine Nachschau auf vergangene Veranstaltungen finden Sie im Webportal des Parlaments.

————————-

Pressedienst der Parlamentsdirektion
Parlamentskorrespondenz
Tel. +43 1 40110/2272
pressedienst@parlament.gv.at
http://www.parlament.gv.at
www.facebook.com/OeParl
www.twitter.com/oeparl

OTS-ORIGINALTEXT PRESSEAUSSENDUNG UNTER AUSSCHLIESSLICHER INHALTLICHER VERANTWORTUNG DES AUSSENDERS. www.ots.at
© Copyright APA-OTS Originaltext-Service GmbH und der jeweilige Aussender