Получите последние обзоры и руководства по технологиям для умного дома. Мы поможем вам купить, подключить и использовать Alexa (или Google Assistant), а также некоторые из самых известных современных брендов для создания идеального жилого пространства с полным набором умных функций.

Помощники ИИ, такие как Alexa и Siri, укрепляют гендерные стереотипы, говорится в докладе ООН.

9

Согласно новому исследованию ООН, умные помощники с женскими голосами способствуют формированию вредных гендерных стереотипов.

В отчете подчеркивается, что цифровые помощники, которым обычно по умолчанию дается женский голос, изображаются как «услужливые и стремящиеся угодить», что усиливает идею о том, что женщины «подчинены». Выводы, опубликованные в статье под названием «Я бы покраснел, если бы мог», названной в честь ответа Siri на провокационную подсказку пользователя, также описывали характер оскорбительных ответов от помощников как «отклоняющий, тусклый или извиняющийся».

«Такие компании, как Apple и Amazon, в которых преимущественно работают команды инженеров-мужчин, создали системы искусственного интеллекта, которые заставляют их женских цифровых помощников встречать словесные оскорбления флиртом «поймай меня, если сможешь», — говорится в отчете, в котором содержится призыв к компаниям положить конец женским голосам по умолчанию.

Конечно, это не первый случай гендеризации голосовых помощников. Как сообщалось в сентябре прошлого года, Amazon выбрал женский голос, потому что маркетинговые исследования показали, что он кажется более «сочувствующим». Однако сам факт, что ассистента зовут Алекса — очень женское имя, — уже намекает на гендерные стереотипы.

Не намного лучше обстоит дело и с Cortana от Microsoft, названной в честь едва одетой женщины-персонажа Halo с искусственным интеллектом. В настоящее время вы не можете изменить голос Кортаны на мужской, и нет никаких признаков того, что вы сделаете это в ближайшее время.

Сири? Ну, Сири — это женское скандинавское имя, которое обычно переводится как «Красивая женщина, которая ведет вас к победе» на скандинавском языке. Хотя, естественно, в разных языках оно также имеет разное значение.

Дело здесь в том, что, как указывается в отчете, поскольку цифровые помощники создаются людьми, они, следовательно, владеют теми же стереотипами, что и мы. Мы видели, как некоторые компании пытаются отойти от этого — Google, например, теперь представляет Assistant по цвету, с разными акцентами и вариантами пола. Этим цветам случайным образом назначается один из восьми вариантов выбора для пользователя.

Решением проблемы, по мнению ООН, будет создание гендерно-нейтрального помощника и отказ от оскорбительных подсказок со стороны пользователей. Исследование также предлагает относиться к ИИ как к меньшему, подчиненному существу.

Еще неизвестно, осознает ли индустрия проблемы, связанные с гендеризацией голосовых помощников, до того, как поведение станет слишком укоренившимся, но ответственность за продвижение к нейтральному ИИ, который усиливает другие и лучшие отношения, лежит на плечах крупнейших компаний отрасли. .

Этот веб-сайт использует файлы cookie для улучшения вашего опыта. Мы предполагаем, что вы согласны с этим, но вы можете отказаться, если хотите. Принимаю Подробнее