Ontvang de nieuwste beoordelingen en technologische handleidingen voor het slimme huis. We helpen je alexa (of Google Assistant) en enkele van de bekendste merken van vandaag te kopen, te verbinden en te gebruiken om de perfecte woonruimte te creëren met een volledige reeks slimme functies!

KI-Assistenten wie Alexa und Siri verstärken laut UN-Bericht Geschlechterstereotype

5

Laut einer neuen Studie der Vereinten Nationen tragen intelligente Assistenten mit Frauenstimmen zu schädlichen Geschlechterstereotypen bei.

Der Bericht hebt hervor, dass digitale Helfer, die normalerweise standardmäßig die Stimme einer Frau erhalten, als „zuvorkommend und bemüht zu gefallen” dargestellt werden – was die Vorstellung verstärkt, dass Frauen „unterwürfig” sind. Die Ergebnisse, die in einem Artikel mit dem Titel „Ich würde erröten, wenn ich könnte” veröffentlicht wurden – benannt nach einer Siri-Antwort auf eine provokative Benutzeraufforderung – beschrieben auch die Natur beleidigender Antworten von Assistenten als „ablenkend, glanzlos oder entschuldigend”.

„Unternehmen wie Apple und Amazon, die mit überwiegend männlichen Ingenieurteams besetzt sind, haben KI-Systeme gebaut, die ihre feminisierten digitalen Assistenten dazu bringen, verbale Beschimpfungen mit Catch-me-if-you-can-Flirts zu begrüßen”, heißt es in dem Bericht, während Unternehmen dazu aufgefordert werden Setzen Sie den Standard-Frauenstimmen ein Ende.

Natürlich ist dies nicht das erste Mal, dass die Genderisierung von Sprachassistenten auftaucht. Wie im vergangenen September berichtet, wählte Amazon eine weiblich klingende Stimme, weil Marktforschungen darauf hindeuteten, dass sie "sympathischer" wirkten. Allein die Tatsache, dass die Assistentin Alexa heißt – ein sehr weiblicher Name – deutet bereits auf Geschlechterklischees hin.

Nicht viel besser sieht es bei Microsofts Cortana aus, die nach der kaum bekleideten weiblichen KI-Figur Halo benannt ist. Derzeit können Sie die Stimme von Cortana nicht in eine männliche ändern, und es gibt keinen Hinweis darauf, dass Sie dies in absehbarer Zeit tun werden.

Siri? Nun, Siri ist ein skandinavischer weiblicher Name, der auf Nordisch normalerweise mit „schöne Frau, die dich zum Sieg führt” übersetzt wird. Allerdings hat es natürlich auch unterschiedliche Bedeutungen in verschiedenen Sprachen.

Der Punkt hier ist, dass, wie der Bericht zeigt, digitale Assistenten, die von Menschen geschaffen werden, daher dieselben Stereotypen besitzen wie wir. Wir haben gesehen, dass einige Unternehmen versucht haben, sich davon zu entfernen – Google zum Beispiel repräsentiert Assistant jetzt nach Farbe, mit unterschiedlichen Akzenten und Geschlechtsoptionen. Diesen Farben wird zufällig eine der acht Auswahlmöglichkeiten für einen Benutzer zugewiesen.

Die Lösung des Problems, so die UNO, bestünde darin, einen geschlechtsneutralen Assistenten zu schaffen und beleidigende Aufforderungen von Benutzern zu unterbinden. Die Studie schlägt auch vor, die KI als ein untergeordnetes, unterwürfiges Wesen zu behandeln.

Ob die Branche mit den Problemen der geschlechtsspezifischen Sprachassistenten aufwacht, bevor das Verhalten zu tief verwurzelt ist, bleibt abzuwarten, aber die Verantwortung liegt eindeutig auf den Schultern der größten Unternehmen der Branche, um auf eine neutrale KI hinzuwirken, die andere und bessere Einstellungen verstärkt .

Diese Website verwendet Cookies, um Ihre Erfahrung zu verbessern. Wir gehen davon aus, dass Sie damit einverstanden sind, Sie können sich jedoch abmelden, wenn Sie möchten. Annehmen Weiterlesen