Obtenha as últimas avaliações e guias de tecnologia para a casa inteligente. Ajudaremos você a comprar, conectar-se e usar o Alexa (ou o Google Assistente), bem como algumas das marcas mais conhecidas da atualidade, para criar o espaço perfeito com um conjunto completo de recursos inteligentes!

Vazam mais de 1.000 gravações de áudio de assistentes particulares, admite o Google

6

O Google foi pego em um erro de privacidade na coleta de voz, com a empresa admitindo que mais de 1.000 gravações de som vazaram para um site de notícias belga.

Como a Amazon, o Google tem um hub de funcionários que ouvem as consultas do Google Assistant dos usuários para melhorar sua IA. Essas gravações devem permanecer anônimas e, mais importante, seguras nos servidores do Google.

Mas mais de 1.000 dessas gravações vazaram por um contratado da emissora belga VRT NWS. As gravações supostamente contêm informações confidenciais, incluindo endereços, de acordo com a VRT. Para confirmar que as gravações eram reais, o VRT "permitiu que flamengos comuns ouvissem algumas de suas próprias gravações". Essas pessoas podem confirmar ter ouvido suas próprias vozes nos clipes de áudio.

Embora o vazamento dessas informações seja ruim o suficiente, 153 das gravações foram conversas gravadas sem que a palavra de ativação "Ok Google" fosse dita. Os alto-falantes inteligentes do Google ouvem essas palavras de ativação e só devem começar a gravar qualquer coisa depois de faladas. Entre esses clipes de voz estavam conversas privadas, chamadas de negócios e coisas do tipo, que os participantes quase certamente não queriam que fossem gravadas.

O Google admitiu o vazamento em uma postagem de blog, onde confirmou que um revisor de idiomas violou as políticas de segurança da empresa e compartilhou as gravações com o VRT.

“Nossas equipes de segurança e resposta à privacidade foram acionadas sobre esse problema, estão investigando e tomaremos medidas", disse o gerente de produto de pesquisa do Google, David Monsees. "Estamos conduzindo uma revisão completa de nossas salvaguardas neste espaço para evitar que má conduta como essa aconteça novamente."

É o mais recente de uma série de erros de segurança de empresas de voz. A Amazon tem estado muito nas manchetes recentemente pela maneira como lida com as gravações do Alexa, com relatos de que não está anonimizando suficientemente os dados.

As empresas de voz usam trabalhadores para ouvir gravações para "treinar" a IA. É uma prática estabelecida, mas que muitos usuários não conhecem. E isso é totalmente justo porque o Google não diz que está fazendo isso em suas políticas de privacidade.

OK, Google: é hora de ser mais transparente conosco

O Google defendeu a prática em sua postagem no blog, chamando-a de "parte crítica" da melhoria do Assistente.

"Especialistas em idiomas analisam apenas cerca de 0,2% de todos os trechos de áudio", disse Monsees. “Os trechos de áudio não são associados às contas de usuário como parte do processo de revisão, e os revisores são orientados a não transcrever conversas de fundo ou outros ruídos, e apenas transcrever trechos direcionados ao Google”.

O Google também reconheceu o que chama de "aceitações falsas" – momentos em que o Assistente pensa ter ouvido as palavras de ativação e inicia as gravações, quando na verdade o comando de acionamento nunca foi dado. Isso poderia explicar as 153 gravações não intencionais, mas é um número significativo em um tamanho de amostra de 1.000. Então extrapole isso, e não é uma boa aparência. Além disso, as políticas do Google afirmam que apenas as gravações pretendidas são enviadas ao Google – o que claramente não é o caso.

Então o que você pode fazer? Você pode desativar o armazenamento de dados de áudio em sua conta do Google, se desejar, ou pode excluir automaticamente seus dados a cada três ou 18 meses. O Google prometeu que estará "analisando oportunidades" para esclarecer como os dados são usados. Já estava na hora.

Este site usa cookies para melhorar sua experiência. Presumiremos que você está ok com isso, mas você pode cancelar, se desejar. Aceitar Consulte Mais informação