Ein Bericht der Vereinten Nationen besagt, dass Siri und andere intelligente Assistentinnen die Vorurteile der Geschlechter stärken

Ein Bericht der Vereinten Nationen wirft Anbietern intelligenter Assistenten wie Apple, Google und Microsoft indirekt vor, die Vorurteile der Geschlechter durch die standardmäßige Verwendung weiblicher Assistenten zu stärken.

Apples Siri, Microsofts Cortana, Googles Assistant on Home-Lautsprecher und Amazons Alexa sind bei weitem die beliebtesten digitalen Assistenten auf dem Markt. In den allermeisten Fällen verwenden all diese Assistenten standardmäßig eine weibliche Stimme. Einige Assistenten verwenden ausschließlich weibliche Stimmen, wie z. B. Alexa, und andere ermöglichen es dem Benutzer, das Geschlecht der Stimmen in den Einstellungen zu ändern, z. B. Siri.

In einigen Fällen hängt das Standardstimme-Geschlecht eines Assistenten vom jeweiligen Markt des Benutzers ab. Apple ist ein gutes Beispiel dafür, dass Siri in den meisten Ländern eine Frauenstimme verwendet. Wenn die Systemsprache auf Arabisch und Französisch eingestellt ist, wird standardmäßig eine Männerstimme verwendet Niederländisches oder Britisches Englisch.

Aus dem Bericht mit dem Titel "Ich würde rot werden, wenn ich könnte":

Da die meisten Sprachassistenten eine weibliche Sprache sprechen, wird ein Signal gesendet, dass Frauen zuvorkommende, fügsame und hilfsbereite Helfer sind, die auf Knopfdruck oder mit einem stumpfen Sprachbefehl wie "Hey" oder "OK" verfügbar sind..

Der Assistent hat keine Entscheidungsbefugnis, die über das hinausgeht, was der Kommandant von ihm verlangt. Es erkennt Befehle an und antwortet auf Anfragen, unabhängig von ihrem Tonfall oder ihrer Feindseligkeit. In vielen Gemeinden werden dadurch häufig vorgebrachte Vorurteile des Geschlechts gestärkt, wonach Frauen schlecht behandelt werden und tolerieren.

Der Titel des Berichts ("Ich würde rot werden, wenn ich könnte") war früher eine der Antworten von Siri, als eine Schlampe angesprochen zu werden (eine andere: "Nun, ich nie!"), Wie 9to5Mac bemerkte, aber Apple hat Seitdem wurden diese Antworten in "Ich weiß nicht, wie ich darauf reagieren soll" geändert.

Es ist auch besorgniserregend, dass eine weibliche KI-Helferin die Gefahr birgt, Kindern falsche Vorstellungen über die Rolle von Frauen in der modernen Gesellschaft zu vermitteln, was möglicherweise darauf hindeutet, dass es normal ist, dass Frauen, Mädchen und geschlechtsspezifische Personen auf Nachfrage reagieren.

Laut Calvin Lai, einem Forscher der Harvard-Universität, der sich mit unbewusster Voreingenommenheit befasst, hängen die von Menschen angenommenen Geschlechterassoziationen davon ab, wie oft Menschen ihnen ausgesetzt sind. Mit der Verbreitung der weiblichen digitalen Assistenten nehmen die Häufigkeit und das Volumen der Assoziationen zwischen „Frau“ und „Assistentin“ dramatisch zu.

Je mehr die Kultur die Menschen lehrt, Frauen mit Assistenten gleichzusetzen, desto mehr werden echte Frauen als Assistenten betrachtet - und dafür bestraft, dass sie nicht assistentenartig sind. Dies zeigt, dass leistungsstarke Technologien Ungleichheiten zwischen den Geschlechtern nicht nur replizieren, sondern auch ausweiten können.

Ich bin mir nicht sicher, was ich von diesem Bericht halten soll, außer dass Apple, Google, Microsoft und Amazon den kulturellen Subtext all dessen sehr gut kennen. Ich bin mir nicht sicher, ob den Unternehmen bewusst ist, dass ausschließlich weibliche Assistentenstimmen die Vorurteile der Geschlechter verstärken könnten, insbesondere bei Kindern, die dies im Laufe der Zeit als Beweis für eine Verbindung zwischen der Stimme einer Frau und ihrer Unterwürfigkeit ansehen könnten.

Verstärken weibliche Assistentenstimmen wirklich westliche Geschlechterstereotype? Was halten Sie von diesem Bericht? Stellen Sie sicher, dass Sie sich mit Ihren Gedanken im Kommentarbereich unten unterhalten.