Das Unternehmermagazin aus der Handelsblatt Media Group

Creditreform

Die meisten Produkte basieren fast ausschließlich auf männerbezogenen Daten. Das benachteiligt Frauen nicht nur, es kann für sie auch tödlich enden.

© Rachel Louise Brown

Fünf Mal versucht Alison Criado-Perez, ihre Schwester anzurufen. Doch das Spracherkennungssystem ihres Volvo reagiert nicht.

Ihre Tochter Caroline, die mit im Auto sitzt, schlägt vor, den Sprachbefehl mit einer tieferen Stimme zu sprechen – es klappt gleich beim ersten Versuch.

Caroline Criado-Perez schildert diese Situation in ihrem Buch „Unsichtbare Frauen“. Darin beschreibt und belegt die Journalistin, wie die „Gender Data Gap“, eine geschlechterbezogene Lücke in wissenschaftlichen Daten, Frauen systematisch benachteiligt.

Sie entsteht dort, wo überwiegend oder ausschließlich männerbezogene Daten vorliegen. Zum Beispiel bei der Spracherkennung, wie eine Studie der University of Washington zeigt.

Die Wissenschaftler fanden heraus, dass die Spracherkennungssoftware von Google männliche Stimmen mit 70 Prozent höherer Wahrscheinlichkeit erkennt als weibliche.

Was für Frauen mitunter gefährlich werden kann, wie Criado-Perez schreibt: „Spracherkennungssoftware in Autos beispielsweise soll unnötige Ablenkung vermeiden und das Fahren sicherer machen. Wenn sie nicht funktioniert, kann sie die gegenteilige Wirkung haben.“

Spracherkennungssoftware wird mithilfe von Stimmdatenbanken geschult, sogenannten Korpora. „Diese Korpora enthalten hauptsächlich männliche Stimmen – wenigstens ist das zu vermuten.“ Denn: Die meisten Korpora schlüsseln ihre Stimmen nicht nach Geschlechtern auf, wodurch neue Datenlücken entstehen.

 

Mensch sagen, Mann meinen

Den Ursprung der Gender Data Gap vermutet Criado-Perez in der seit Jahrtausenden vorherrschenden Denkweise, die Männer als unausgesprochene Selbstverständlichkeit betrachtet: „Denn wenn wir ‚Mensch‘ sagen, meinen wir meistens den Mann.“

Eines der Beispiele, die Criado-Perez dafür anführt, ist die Durchschnittstemperatur in Büroräumen. Die Formel, nach der sie berechnet wird, wurde in den 1960er-Jahren anhand der Stoffwechselrate eines durchschnittlichen 40-jährigen Mannes von 70 Kilogramm Gewicht erstellt.

Eine Studie der Universität Maastricht zeigt, dass diese Formel die Stoffwechselrate von Frauen möglicherweise um 35 Prozent zu hoch ansetzt – womit Büros um fünf Grad zu kalt für Frauen sind. Das sei so ungerecht wie unwirtschaftlich. „Denn wer sich am Arbeitsplatz nicht wohlfühlt, ist nicht produktiv.“

Noch deutlicher werden die Folgen, wenn Datenlücken noch direkteren Einfluss auf die Gesundheit von Frauen nehmen. Zum Beispiel, wenn sich Sicherheitskleidung nur an den Größen und Merkmalen von Männern orientiert und damit selbst zum Sicherheitsrisiko wird.

Oder wenn sich Frauen giftigen Chemikalien aussetzen müssen, weil die unterschiedlichen Immunsysteme und Hormone von Männern und Frauen nicht mitbedacht wurden. Obwohl sie, wie eine Studie der Universität York bestätigt, bei der Aufnahme von Chemikalien eine Rolle spielen können.

Im „neuen“ Kontext von Big Data sei es daher umso dringender geboten, die Gender Data Gap zu schließen, schreibt Criado-Perez. Dafür plädiert auch Lajla Fetic, Projektmanagerin im Projekt „Ethik der Algorithmen“ der Bertelsmann Stiftung:

„Durch algorithmische Systeme, die schon heute unser soziales Leben beeinflussen, können bestehende Vorurteile in der Gesellschaft reproduziert und skaliert werden.“ Fehlende Repräsentanz – ob in Datensätzen oder Entwicklerteams – erschwere die „gute“ Arbeit algorithmischer Systeme. Sie wirken damit wie ein Katalysator für bestehende Ungleichheiten in der Gesellschaft.

 

Ungerechte Systeme

Das zeigte sich unter anderem, als Amazon Daten früherer Einstellungsergebnisse nahm und sie als Grundlage für die algorithmische Auswahl neuer Bewerber nutzte. „Nun arbeiten im IT-Sektor aber deutlich mehr Männer, sodass Frauen automatisch schlechtere Chancen hatten“, sagt Lajla Fetic.

Algorithmische Systeme sind nicht objektiv, Algorithmen im Zweifel nur Handlungsvorschriften. „Jeder von uns wächst mit bestimmten Werten und Prinzipien auf, sodass auch bei der Entwicklung von algorithmischen Systemen Werteentscheidungen in den Code ‚programmiert‘ werden.“

Gerechte Ergebnisse ließen sich dann erzielen, wenn möglichst viele unterschiedliche Gruppen an der Entwicklung dieser Systeme beteiligt sind und Gehör finden.

Laut Caroline Criado-Perez schließt sich die Gender Data Gap erst, wenn Frauen sichtbar werden. Sie fordert deshalb mehr Repräsentation von Frauen in allen Lebensbereichen. „Angesichts der wachsenden Zahl von Frauen, die Macht und Einfluss haben, kristallisiert sich nämlich ein weiteres Muster heraus: Frauen vergessen nicht so leicht wie Männer, dass Frauen existieren.“

Zur Person

Caroline Criado-Perez ist Autorin, Rundfunkjournalistin und Aktivistin und lebt in London. Zu ihren bekanntesten Kampagnen-Erfolgen gehören die Mitfinanzierung der Website Women’s Room, der Abdruck einer Frau auf britischen Banknoten, die Verpflichtung von Twitter, seinen Umgang mit dem Thema Missbrauch zu ändern, und die Aufstellung einer Statue der Frauenrechtlerin Millicent Fawcett auf dem Parliament Square in London. 2013 wurde Caroline Criado-Perez zum Human Rights Campaigner of the Year ernannt. Seit 2015 ist sie Officer of the Order of the British Empire (OBE). Zuletzt erschienen ist ihr Buch „Unsichtbare Frauen – Wie eine von Daten beherrschte Welt die Hälfte der Bevölkerung ignoriert“ im btb Verlag. Interessiert? Dann gewinnen Sie eins von drei Exemplaren: creditreform-magazin.de/gewinnspiele