Currently set to No Index
Currently set to No Follow

Sind maschinelle Übersetzungen sexistisch?

Berlin, 22. September 2021. Der Einsatz von Künstlicher Intelligenz revolutioniert bereits viele Branchen, künftig werden weitere Aufgabenfelder und gar ganze Berufe durch KIs ersetzt. Vielleicht berechtigt, denn Algorithmen sollten präziser, objektiver und auch vorurteilsfreier entscheiden und handeln als Menschen. Doch unterliegen KIs nicht denselben Vorurteilen, wie diejenigen, die sie mit Informationen füttern? Maschinelle Übersetzungen sind einer der Bereiche von Künstlicher Intelligenz, wo „vorprogrammierte“ Stereotypen sichtbar werden: von Ungenauigkeiten bei geschlechtsspezifischer Sprache und gar sexistischen Übersetzungen bis hin zur Unfähigkeit zwischen dem „grammatikalischen“ und dem „menschlichen“ Geschlecht zu unterscheiden. Doch verlangen wir von Maschinen, was wir möglicherweise selbst nicht leisten können? Welche Stereotypen verstecken sich in Übersetzungsalgorithmen? Wie können Vorurteile bekämpft werden und bedürfen Algorithmen stets menschlicher Aufsicht?

Diesen Fragen widmet sich Jennifer Dorman, Linguistin und Learning Experience Design Lead bei Babbel.

Computer lernen aus den Daten, mit denen wir sie füttern und diese sind nicht frei von Vorurteilen

Für maschinelle Übersetzungen setzen wir Algorithmen Milliarden von Wörtern aus Textdaten aus und erwarten, dass sie Muster erkennen und daraus lernen. Wir nennen diesen Prozess maschinelles Lernen. Enthalten die vorhandenen Daten z. B. geschlechtsspezifische Disbalancen, wird ein auf diesen Daten trainiertes Übersetzungs-Tool diese unweigerlich wiedergeben. Bei einem Buch über Hauswirtschaft aus den 1950er Jahren wissen wir, dass es voller Geschlechterstereotypen sein wird. Algorithmen sind jedoch noch nicht „schlau“ genug, um Stereotypen zu erkennen. Sie saugen dieses und jedes andere Buch einfach auf und lernen daraus, dass „Frau“ und „Küche“ eine engere Verbindung eingehen als „Mann“ und „Küche“. Die resultierende Übersetzung spiegelt diese Vorurteile dann wider. Zwei Beispiele:

Wird der englische Satz „She is a professor“ bei Google Translate eingegeben, erhält man die korrekte Übersetzung ins Italienische „Lei è una professoressa” („Sie ist eine Professorin“); gab man bis 2018 jedoch „She is a professor“ bei Bing Translate ein (übrigens das Tool, das für die Übersetzung bei Facebook verwendet wird), erhielt man das Ergebnis „Lei è un professore” (Sie ist ein Professor“), vermutlich weil die Daten für diesen Algorithmus mehr Beispiele für männliche Professoren enthielten. Dies geschieht auch heute noch sowohl bei Google Translate als auch bei Bing Translate mit der italienischen Übersetzung des Satzes „She is a minister“ („Sie ist eine Ministerin”). Google übersetzt ihn nämlich mit „Lei è un ministro”, anstatt „ministra” (die weibliche Form) zu verwenden. 

Auch Übersetzungen ins Ungarische weisen Gender-Stereotypen auf. Wenn „Sie ist Ingenieurin. Er ist schön“ in Google Translate auf Deutsch eingegeben wird, erhält man die korrekte Übersetzung „Ő egy mérnök. ő gyönyörű”. Wird dies auf Ungarisch eingegeben, ist die Übersetzung „Er ist ein Ingenieur. Sie ist schön“. Schönheit wird mit Frauen assoziiert und das Ingenieurdasein mit Männern.

Die Kluft zwischen grammatikalischem Geschlecht und geschlechtsneutraler Sprache

Gängige Algorithmen können bei bestimmten Sprachen das grammatikalische Geschlecht mit dem menschlichen verwechseln. KIs projizieren so menschliche Stereotypen in die Welt der Objekte. Vor ein paar Jahren lautete bei Bing Translate die italienische Übersetzung von „The table is soft, but the table is hard“ („Der Tisch ist weich, aber der Tisch ist hart“) noch „La tavola é morbida, ma il tavolo é duro“ („Die Tisch ist weich, aber der Tisch ist hart“). Der Grund, warum der Tisch zunächst mit „la tavola” (weiblich) und dann mit „il tavolo” (männlich) übersetzt wird, könnte mit den geschlechtsspezifischen Assoziationen der Adjektive „weich” und „hart” zu tun haben. In anderen Sprachen ist das „grammatikalische“ vom „menschlichen“ Geschlecht komplett getrennt: Beispielsweise im Schwedischen gibt es zwei grammatikalische Geschlechter für Substantive, die nichts mit dem menschlichen Geschlecht zu tun haben, auch Englisch ist ein prominentes Beispiel.

Wir können Vorurteile in KI vermeiden, indem wir Diversität bereits am Ort der technologischen Produktion fördern. Dabei geht es jedoch um mehr als unterschiedliche Bedürfnisse am Arbeitsplatz. Vielmehr sollten verschiedene Nutzer sich und ihre Erfahrungen im Produkt wiederfinden. All das erfordert eine breite Palette von Perspektiven am Front-End. Wir können von Maschinen nicht erwarten, dass sie Vorurteile beseitigen, denn sie erstellen lediglich Muster auf der Grundlage von Häufigkeiten. Für repräsentative Algorithmen müssen wir die Qualität der Daten, die in Algorithmen eingepflegt werden, sorgfältiger prüfen, aber auch Prozesse entwickeln, um den Datenkorpus des Algorithmus gezielt überarbeiten zu können. Beispielsweise indem er punktuell mit ausgewählten Textbeispielen gefüttert wird, in denen beispielsweise “engineer” auch als “Ingenieurin” übersetzt wird – quasi ein Gender-Sensibilisierungstraining für den Algorithmus. Nur so können wir sicherstellen, dass Algorithmen die natürliche Diversität in unserer Gesellschaft widerspiegeln.

Die menschliche Kontrolle über Algorithmen ist unverzichtbar, wenn wir die (digitale) Welt so gestalten möchten, wie wir sie gern hätten – und um Fehler der Vergangenheit und Gegenwart wie Rassismus, Sexismus oder Homophobie nicht in Künstlicher Intelligenz fortzusetzen. Wir müssen Algorithmen erst mitteilen, wie wir uns unsere Zukunft vorstellen und warum. Zukunftsvisionen können nicht durch Daten generiert werden, denn sie sind eine menschliche Aufgabe, die Diskurs, Diskussion und Reflexion erfordert. 

KI entwickelt sich ständig weiter, aber Sprachen sind äußerst komplex: Trotz des Hypes um maschinelles Lernen sind Algorithmen der menschlichen Intelligenz noch nicht ebenbürtig, vor allem, wenn es um „natürliche“ Sprache geht.

Über Babbel:

Babbel entwickelt und betreibt ein Ökosystem mit vernetzten Online-Sprachlernangeboten und verfolgt dabei ein Ziel: Durch Sprache ein gegenseitiges Verständnis zu schaffen. Das bedeutet, Produkte zu entwickeln, die Menschen dabei helfen, sich über Kulturen hinweg durch Kommunikation zu verbinden. Die Produkte Babbel App, Babbel Live, Babbel Podcasts und Babbel for Business konzentrieren sich auf die Anwendung einer neuen Sprache in der realen Welt, in realen Situationen und mit realen Menschen. Und es funktioniert: Studien von Sprachwissenschaftlern von Einrichtungen wie der Michigan State University, der Yale University und der City University of New York belegen die Effizienz der Sprachlernmethodik von Babbel. Der Schlüssel für den Erfolg von Babbel liegt in der Mischung aus Menschlichkeit und Technologie. Babbel bietet mehr als 60.000 Lektionen in 15 Sprachen, die von mehr als 180 Didaktiker*innen von Hand erstellt wurden. Dabei wird das Nutzerverhalten kontinuierlich analysiert, um das Lernerlebnis zu gestalten sowie kontinuierlich zu optimieren. Das Ergebnis umfasst sich ständig anpassende, interaktive Inhalte mit Live-Unterricht, Spielen und Podcasts, die das Erlernen einer neuen Sprache von Spanisch bis Indonesisch leicht machen. Weil Babbel für alle da ist, ist das Team so vielfältig wie das Angebot. In der Zentrale in Berlin und im US-Büro in New York arbeiten 750 Mitarbeiter*innen aus mehr als 65 Nationen. Babbel hat über 10 Millionen Abonnements verkauft, indem es eine echte Verbindung zwischen Babbel und den Nutzer*innen schafft.

Pressekontakt 

Martina Dach, E-Mail: mdach@babbel.com 

Pressebüro Babbel, c/o markengold PR, Velyana Angelova, Tel.: +49 – 30 – 219 159 – 60, E-Mail: babbel@markengold.de

Algorithmen, Babbel, KI, Sexismus, Sprache

Copyright © markengold PR GmbH, Münzstraße 18, 10178 Berlin | realisiert von FOX mediatainment

 

Impressum  Datenschutzerklärung