Få de senaste recensionerna och teknikguiderna för det smarta hemmet. Vi hjälper dig att köpa, ansluta och använda Alexa (eller Google Assistant) samt några av dagens mest kända varumärken för att skapa det perfekta vardagsrummet med en komplett uppsättning smarta funktioner!

AI-assistenter som Alexa och Siri förstärker könsstereotyper, säger FN-rapporten

4

Smarta assistenter med kvinnliga röster bidrar till skadliga könsstereotyper, enligt en ny studie från FN.

Rapporten framhåller att digitala hjälpare, som vanligtvis ges en kvinnas röst som standard, framställs som "skyldiga och ivriga att behaga" – vilket förstärker idén att kvinnor är "undergivna". Fynden, publicerade i en tidning med titeln, skulle jag rodna om jag kunde döpa efter ett Siri-svar på en provocerande användaruppmaning – beskrev också karaktären av förolämpande svar från assistenter som "avvisande, svaga eller ursäktande".

"Företag som Apple och Amazon, bemannade av överväldigande manliga ingenjörsteam, har byggt AI-system som får deras feminiserade digitala assistenter att hälsa på verbala övergrepp med fånga-mig-om-du-kan-flirt", står det i rapporten, samtidigt som företagen uppmanas att sätta stopp för standard kvinnliga röster.

Naturligtvis är det inte första gången könsfördelningen av röstassistenter har dykt upp. Som rapporterades i september förra året, valde Amazon en kvinnlig röst eftersom marknadsundersökningar antydde att den framstod som mer "sympatisk". Men själva det faktum att assistenten heter Alexa – väldigt mycket ett kvinnonamn – antyder redan könsstereotyper.

Det är inte mycket bättre med Microsofts Cortana, som är uppkallad efter den knappt klädda Halo kvinnliga AI-karaktären. För närvarande kan du inte ändra Cortanas röst till en manlig röst, och det finns inget som tyder på att du kommer att göra det snart.

Siri? Tja, Siri är ett kvinnligt skandinaviskt namn som vanligtvis översätts till "Vacker kvinna som leder dig till seger" på norra. Även om det naturligtvis också har olika betydelser på olika språk.

Poängen här är att, som rapporten anger, med digitala assistenter skapade av människor, de äger därför samma stereotyper som vi gör. Det är något som vi har sett några företag försöka flytta ifrån – Google, till exempel, representerar nu Assistant efter färg, med olika accenter och könsalternativ. Dessa färger tilldelas slumpmässigt ett av de åtta valen för en användare.

Lösningen på frågan, säger FN, skulle vara att skapa en könsneutral assistent och att motverka förolämpande uppmaningar från användare. Att behandla AI som en mindre, underordnad varelse föreslås också av studien.

Huruvida branschen vaknar upp till problemen med att könsbestämma röstassistenter innan beteenden blir för invanda återstår att se, men ansvaret ligger helt och hållet på branschens största företags axlar att driva mot en neutral AI som förstärker olika, och bättre, attityder .

Denna webbplats använder cookies för att förbättra din upplevelse. Vi antar att du är ok med detta, men du kan välja bort det om du vill. Jag accepterar Fler detaljer