Pular para o conteúdo principal

Áudio viral de JD Vance falando mal de Elon Musk é falso, apenas a ponta do iceberg da IA

 No fim de semana, o áudio gerado por IA do vice-presidente JD Vance dizendo que Elon Musk está "fazendo cosplay de um grande líder americano" que está fazendo a administração "parecer ruim" circulou amplamente nas redes sociais. No domingo, o diretor de comunicações de Vance, William Martin, disse no X que "Este áudio é 100% falso e certamente não é o vice-presidente". A postagem de Martin citou outra postagem do X que compartilhou o áudio, mas essa postagem foi excluída desde então. 

Embora não saibamos qual software específico foi usado para criar o áudio, o software da empresa de desinformação deepfake e gerada por IA Reality Defender detectou o áudio como "provavelmente falso".

"Nós o executamos em vários modelos de detecção de áudio e descobrimos que provavelmente era uma farsa", disse-me um porta-voz da Reality Defender em uma declaração. "O ruído de fundo e a reverberação também foram provavelmente adicionados para mascarar deliberadamente a qualidade do áudio deepfaked real para ofuscação adicional." 

💡
Você sabe mais alguma coisa sobre como as empresas de áudio de IA criam salvaguardas? Eu adoraria ouvir de você. Usando um dispositivo que não seja de trabalho, você pode me enviar uma mensagem segura no Signal em emanuel.404. Caso contrário, envie-me um e-mail para emanuel@404media.co.

Enquanto Martin reagia ao áudio compartilhado no X, ele parece ter circulado antes no TikTok. Um vídeo do TikTok do áudio postado ontem e não rotulado como sendo gerado por IA, agora tem mais de 2 milhões de visualizações e 8.000 comentários, o primeiro dos quais diz "Com a ascensão da IA, não sei no que acreditar". 

Tecnicamente falando, o áudio soa totalmente crível. A voz soa exatamente como a de Vance, e a estática no áudio soa muito como outros áudios gravados secretamente de políticos que vazaram para organizações de notícias no passado . Como o Reality Defender observa, a estática adicionada também torna mais difícil para detectores automáticos de deepfake reconhecerem o áudio como falso. O áudio também foi republicado no TikTok dezenas de vezes, assim como no YouTube e no X. 

Esse tipo de conteúdo gerado por IA é desenfreado no TikTok, apesar das políticas da empresa contra o compartilhamento de desinformação e pedir aos usuários que rotulem o conteúdo gerado por IA . Em fevereiro, por exemplo, escrevi sobre centenas de vídeos que usaram uma voz de Donald Trump gerada por IA para promover vários golpes. 

O TikTok não respondeu imediatamente a um pedido de comentário. 

Embora não saibamos exatamente qual software foi usado para criar o áudio, clonar a semelhança das pessoas com ferramentas de geração de voz de IA é extremamente fácil. No ano passado, relatei que a maior empresa nesse espaço, a ElevenLabs, tornou possível clonar as vozes de celebridades e políticos mesmo depois que a empresa introduziu políticas e salvaguardas contra essa prática. Em março, uma avaliação da Consumer Reports de seis produtos de clonagem de voz de IA, incluindo a ElevenLabs, também descobriu que não há salvaguardas significativas nesses produtos para impedir que as pessoas os usem indevidamente.

Embora o áudio gerado por IA de Vance seja apenas a ponta do iceberg em termos de toda a mídia enganosa gerada por IA que existe no TikTok e outras plataformas, não está claro que esse uso específico de áudio gerado por IA tenha muito impacto político. Como escrevemos há anos , as pessoas tendem a acreditar em seus antecedentes, seja a mídia que veem online autêntica, uma deepfake ou apenas editada de forma grosseira, e Vance fez uma negação clara. É, no entanto, um sinal de quão fácil é produzir mídia gerada por IA que realmente causa danos reais na forma de pequenos golpes, uma avalanche de AI Slop e conteúdo não consensual . 

Comentários

Postagens mais visitadas deste blog

“internet zumbi”

 A ascensão do slop, diz ele, transformou a rede social em um espaço onde “uma mistura de bots, humanos e contas que já foram humanos, mas não se misturam mais para formar um site desastroso onde há pouca conexão social”. Nick Clegg, presidente de assuntos globais da empresa-mãe do Facebook, Meta, escreveu em fevereiro que a rede social está treinando seus sistemas para identificar conteúdo feito por IA. “Como a diferença entre conteúdo humano e sintético fica turva, as pessoas querem saber onde está o limite”, escreveu ele. O problema começou a preocupar a principal fonte de receita da indústria de mídia social: as agências de publicidade que pagam para colocar anúncios ao lado do conteúdo. Farhad Divecha, diretor-gerente da agência de marketing digital AccuraCast, com sede no Reino Unido, diz que agora está encontrando casos em que os usuários estão sinalizando erroneamente os anúncios como slop feitos de IA quando não estão. “Vimos casos em que as pessoas comentara...

Cibersegurança: Confiança zero… desconfiança por omissão

  Atualmente, todas as empresas têm presença digital. Embora este facto traga inúmeros benefícios, também acarreta uma série de riscos. Os cibercriminosos estão a encontrar cada vez mais formas de contornar as medidas de segurança e aceder aos dados. Se a proteção não for suficientemente forte, os dados das organizações, dos seus clientes e dos seus parceiros podem ser comprometidos, com consequências terríveis para as empresas. A crescente digitalização, juntamente com a evolução das táticas dos cibercriminosos, está a resultar num aumento dos incidentes de cibersegurança. Esta tendência preocupante é demonstrada no último Relatório de Violação de Dados, realizado pelo Internet Theft Resource Center (ITRC), que regista 2.365 ciberataques em 2023 que afetaram mais de 300 milhões de vítimas. Com este conhecimento, é essencial que as empresas tomem medidas e protejam os seus sistemas para evitar que utilizadores não identificados acedam a informações sensíveis. Só assim será possível...

Apple Intelligence

  O iOS 18.2 trouxe  uma série de novos recursos dentro da suíte Apple Intelligence   e isso também está exigindo mais armazenamento livre nos iPhones, iPads e Macs compatíveis. Conforme as novas diretrizes da Apple, agora  o usuário precisa manter ao menos 7 GB de memória livre  no dispositivo caso deseje usar as funcionalidades de Inteligência Artificial. Ou seja, um aumento considerável em relação aos 4 GB de armazenamento  exigidos anteriormente no iOS 18.1 . A Apple diz que essa mudança é necessária porque muitas das funções de IA são processadas localmente pela NPU Apple Silicon, algo que exige mais espaço de memória. Caso o usuário não tenha os 7 GB disponíveis, ele será impedido de usar a IA para gerar emojis (Genmoji) ou conversar com a nova Siri, que tem o ChatGPT integrado.   Recursos mais "simples", como a tradução ou resumo de textos, também deixam de funcionar. Na prática, usuários que procuram comprar os novos aparelhos da linha  iP...