Obtenez les derniers avis et guides technologiques pour la maison intelligente. Nous vous aiderons à acheter, connecter et utiliser Alexa (ou Google Assistant) ainsi que certaines des marques les plus connues d’aujourd’hui pour créer l’espace de vie parfait avec une suite complète de fonctionnalités intelligentes!

Des assistants IA comme Alexa et Siri renforcent les stéréotypes de genre, selon un rapport de l’ONU

8

Selon une nouvelle étude des Nations Unies, les assistants intelligents à voix féminine contribuent aux stéréotypes sexistes néfastes.

Le rapport souligne que les aides numériques, qui reçoivent généralement la voix d'une femme par défaut, sont décrites comme "obligeantes et désireuses de plaire" – renforçant l'idée que les femmes sont "asservies". Les résultats, publiés dans un article intitulé, Je rougirais si je pouvais – du nom d'une réponse de Siri à une invite utilisateur provocante – décrivaient également la nature des réponses insultantes des assistants comme "déviantes, ternes ou apologétiques".

"Des entreprises comme Apple et Amazon, composées d'équipes d'ingénieurs majoritairement masculines, ont construit des systèmes d'IA qui amènent leurs assistants numériques féminisés à accueillir les abus verbaux avec un flirt attrape-moi si tu peux", indique le rapport, tout en appelant les entreprises à mettre fin aux voix féminines par défaut.

Bien sûr, ce n'est pas la première fois que la gendérisation des assistants vocaux fait surface. Comme indiqué en septembre dernier, Amazon a choisi une voix à consonance féminine parce que des études de marché ont suggéré qu'elle semblait plus "sympathique". Cependant, le fait même que l'assistante s'appelle Alexa – un nom très féminin – fait déjà allusion à des stéréotypes de genre.

Ce n'est pas beaucoup mieux avec Cortana de Microsoft, qui porte le nom du personnage féminin Halo à peine vêtu. À l'heure actuelle, vous ne pouvez pas changer la voix de Cortana en une voix masculine, et rien n'indique que vous le ferez de si tôt.

Siri ? Eh bien, Siri est un nom féminin scandinave qui se traduit généralement par "Belle femme qui vous mène à la victoire" en nordique. Bien que, naturellement, il ait également des significations différentes dans différentes langues.

Le point ici est que, comme l'indique le rapport, les assistants numériques étant créés par des humains, ils possèdent donc les mêmes stéréotypes que nous. C'est quelque chose dont nous avons vu certaines entreprises tenter de s'éloigner – Google, par exemple, représente désormais Assistant par couleur, avec différents accents et options de genre. Ces couleurs sont attribuées au hasard l'un des huit choix pour un utilisateur.

La solution au problème, selon l'ONU, serait de créer un assistant non sexiste et de décourager les invites insultantes des utilisateurs. L'étude suggère également de traiter l'IA comme un être inférieur et subordonné.

Il reste à voir si l'industrie prend conscience des problèmes liés à la gendérisation des assistants vocaux avant que les comportements ne deviennent trop ancrés, mais la responsabilité incombe entièrement aux plus grandes entreprises de l'industrie de pousser vers une IA neutre qui renforce des attitudes différentes et meilleures. .

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More