Uzyskaj najnowsze recenzje i przewodniki technologiczne dotyczące inteligentnego domu. Pomożemy Ci kupić, połączyć i używać Alexy (lub Asystenta Google), a także niektórych z najbardziej znanych marek, aby stworzyć idealną przestrzeń życiową z pełnym zestawem inteligentnych funkcji!

Asystenci AI, tacy jak Alexa i Siri, wzmacniają stereotypy dotyczące płci, mówi raport ONZ

6

Zgodnie z nowym badaniem Organizacji Narodów Zjednoczonych, inteligentni asystenci z kobiecymi głosami przyczyniają się do powstawania szkodliwych stereotypów związanych z płcią.

W raporcie podkreślono, że cyfrowi pomocnicy, zwykle domyślnie otrzymujący głos kobiety, są przedstawiani jako „uczynni i chętni do pomocy" – co wzmacnia pogląd, że kobiety są „służalcze”. Odkrycia, opublikowane w artykule zatytułowanym „Zarumieniłbym się, gdybym mógł” – nazwane na cześć odpowiedzi Siri na prowokacyjny monit użytkownika – opisują również naturę obraźliwych odpowiedzi od asystentów jako „odbijające się, nijakie lub przepraszające”.

„Firmy takie jak Apple i Amazon, w których przeważają męskie zespoły inżynierów, zbudowały systemy sztucznej inteligencji, które powodują, że ich sfeminizowane asystentki cyfrowe witają słowne obelgi flirtem typu „złap mnie, jeśli potrafisz” – czytamy w raporcie, wzywając jednocześnie firmy do położyć kres domyślnym kobiecym głosom.

Oczywiście nie jest to pierwszy raz, kiedy pojawia się genderyzacja asystentów głosowych. Jak informowaliśmy we wrześniu ubiegłego roku, Amazon wybrał kobiecy głos, ponieważ badania rynku sugerowały, że jest on bardziej „sympatyczny”. Jednak sam fakt, że asystentka ma na imię Alexa – bardzo kobiece imię – już wskazuje na stereotypy dotyczące płci.

Niewiele lepiej jest z Cortaną Microsoftu, której nazwa pochodzi od ledwo ubranej kobiecej postaci AI z Halo. Obecnie nie możesz zmienić głosu Cortany na męski i nic nie wskazuje na to, że zrobisz to w najbliższym czasie.

Siri? Cóż, Siri to żeńskie skandynawskie imię, które zazwyczaj tłumaczy się jako „Piękna kobieta, która prowadzi cię do zwycięstwa” w języku nordyckim. Chociaż, oczywiście, ma również różne znaczenia w różnych językach.

Chodzi o to, że, jak wskazuje raport, asystenci cyfrowi są stworzeni przez ludzi, dlatego też posiadają te same stereotypy, co my. Jest to coś, od czego niektóre firmy próbowały odejść – na przykład Google reprezentuje teraz Asystenta według koloru, z różnymi akcentami i opcjami płci. Kolory te są przydzielane losowo jednemu z ośmiu wyborów dla użytkownika.

ONZ twierdzi, że rozwiązaniem tego problemu byłoby stworzenie asystenta neutralnego pod względem płci i zniechęcenie użytkowników do obraźliwych monitów. Badanie sugeruje również traktowanie AI jako pomniejszej, podporządkowanej istoty.

To, czy branża obudzi się w obliczu problemów związanych z płciowymi asystentami głosowymi, zanim zachowania staną się zbyt zakorzenione, dopiero się okaże, ale odpowiedzialność spoczywa bezpośrednio na barkach największych firm w branży, aby dążyć do neutralnej sztucznej inteligencji, która wzmacnia inne i lepsze postawy .

Ta strona korzysta z plików cookie, aby poprawić Twoje wrażenia. Zakładamy, że nie masz nic przeciwko, ale możesz zrezygnować, jeśli chcesz. Akceptuję Więcej szczegółów