Obtenha as últimas avaliações e guias de tecnologia para a casa inteligente. Ajudaremos você a comprar, conectar-se e usar o Alexa (ou o Google Assistente), bem como algumas das marcas mais conhecidas da atualidade, para criar o espaço perfeito com um conjunto completo de recursos inteligentes!

Assistentes de IA como Alexa e Siri reforçam estereótipos de gênero, diz relatório da ONU

10

Assistentes inteligentes com vozes femininas estão contribuindo para estereótipos de gênero nocivos, de acordo com um novo estudo das Nações Unidas.

O relatório destaca que os ajudantes digitais, geralmente com a voz de uma mulher por padrão, são retratados como “complacentes e ansiosos para agradar" – reforçando a ideia de que as mulheres são “subservientes”. As descobertas, publicadas em um artigo intitulado, I'd blush if I could – nomeado após uma resposta da Siri a um prompt provocativo do usuário – também descreveu a natureza das respostas insultuosas dos assistentes como "desviantes, sem brilho ou apologéticas".

“Empresas como a Apple e a Amazon, compostas por equipes de engenharia predominantemente masculinas, construíram sistemas de IA que fazem com que seus assistentes digitais feminizados respondam ao abuso verbal com um flerte do tipo pegue-me-se-puder”, diz o relatório, enquanto pede às empresas que acabar com as vozes femininas padrão.

Claro, esta não é a primeira vez que a generização dos assistentes de voz vem à tona. Conforme relatado em setembro passado, a Amazon escolheu uma voz feminina porque a pesquisa de mercado sugeriu que parecia mais "simpática". No entanto, o próprio fato de a assistente se chamar Alexa – um nome muito feminino – já sugere estereótipos de gênero.

Não é muito melhor com a Cortana da Microsoft, que leva o nome da personagem feminina de IA de Halo, mal vestida. No momento, você não pode mudar a voz de Cortana para uma masculina, e não há indicação de que você fará isso tão cedo.

Siri? Bem, Siri é um nome escandinavo feminino que normalmente se traduz em "mulher bonita que leva você à vitória" em nórdico. Embora, naturalmente, também tenha significados diferentes em diferentes idiomas.

O ponto aqui é que, como indica o relatório, com os assistentes digitais sendo criados por humanos, eles possuem os mesmos estereótipos que nós. É algo que vimos algumas empresas tentando se afastar – o Google, por exemplo, agora representa o Assistente por cor, com diferentes sotaques e opções de gênero. Essas cores são atribuídas aleatoriamente a uma das oito opções para um usuário.

A solução para o problema, diz a ONU, seria criar um assistente de gênero neutro e desencorajar mensagens ofensivas dos usuários. Tratar a IA como um ser inferior e subserviente também é sugerido pelo estudo.

Ainda não se sabe se a indústria vai acordar para os problemas ligados à generização dos assistentes de voz antes que os comportamentos se tornem muito arraigados, mas a responsabilidade recai diretamente sobre os ombros das maiores empresas da indústria para avançar em direção a uma IA neutra que reforce atitudes diferentes e melhores. .

Este site usa cookies para melhorar sua experiência. Presumiremos que você está ok com isso, mas você pode cancelar, se desejar. Aceitar Consulte Mais informação