Assistentes de IA como Alexa e Siri reforçam estereótipos de gênero, diz relatório da ONU
Assistentes inteligentes com vozes femininas estão contribuindo para estereótipos de gênero nocivos, de acordo com um novo estudo das Nações Unidas.
O relatório destaca que os ajudantes digitais, geralmente com a voz de uma mulher por padrão, são retratados como “complacentes e ansiosos para agradar" – reforçando a ideia de que as mulheres são “subservientes”. As descobertas, publicadas em um artigo intitulado, I'd blush if I could – nomeado após uma resposta da Siri a um prompt provocativo do usuário – também descreveu a natureza das respostas insultuosas dos assistentes como "desviantes, sem brilho ou apologéticas".
“Empresas como a Apple e a Amazon, compostas por equipes de engenharia predominantemente masculinas, construíram sistemas de IA que fazem com que seus assistentes digitais feminizados respondam ao abuso verbal com um flerte do tipo pegue-me-se-puder”, diz o relatório, enquanto pede às empresas que acabar com as vozes femininas padrão.
Claro, esta não é a primeira vez que a generização dos assistentes de voz vem à tona. Conforme relatado em setembro passado, a Amazon escolheu uma voz feminina porque a pesquisa de mercado sugeriu que parecia mais "simpática". No entanto, o próprio fato de a assistente se chamar Alexa – um nome muito feminino – já sugere estereótipos de gênero.
Não é muito melhor com a Cortana da Microsoft, que leva o nome da personagem feminina de IA de Halo, mal vestida. No momento, você não pode mudar a voz de Cortana para uma masculina, e não há indicação de que você fará isso tão cedo.
Siri? Bem, Siri é um nome escandinavo feminino que normalmente se traduz em "mulher bonita que leva você à vitória" em nórdico. Embora, naturalmente, também tenha significados diferentes em diferentes idiomas.
O ponto aqui é que, como indica o relatório, com os assistentes digitais sendo criados por humanos, eles possuem os mesmos estereótipos que nós. É algo que vimos algumas empresas tentando se afastar – o Google, por exemplo, agora representa o Assistente por cor, com diferentes sotaques e opções de gênero. Essas cores são atribuídas aleatoriamente a uma das oito opções para um usuário.
A solução para o problema, diz a ONU, seria criar um assistente de gênero neutro e desencorajar mensagens ofensivas dos usuários. Tratar a IA como um ser inferior e subserviente também é sugerido pelo estudo.
Ainda não se sabe se a indústria vai acordar para os problemas ligados à generização dos assistentes de voz antes que os comportamentos se tornem muito arraigados, mas a responsabilidade recai diretamente sobre os ombros das maiores empresas da indústria para avançar em direção a uma IA neutra que reforce atitudes diferentes e melhores. .