Pular para o conteúdo principal

Áudio viral de JD Vance falando mal de Elon Musk é falso, apenas a ponta do iceberg da IA

 No fim de semana, o áudio gerado por IA do vice-presidente JD Vance dizendo que Elon Musk está "fazendo cosplay de um grande líder americano" que está fazendo a administração "parecer ruim" circulou amplamente nas redes sociais. No domingo, o diretor de comunicações de Vance, William Martin, disse no X que "Este áudio é 100% falso e certamente não é o vice-presidente". A postagem de Martin citou outra postagem do X que compartilhou o áudio, mas essa postagem foi excluída desde então. 

Embora não saibamos qual software específico foi usado para criar o áudio, o software da empresa de desinformação deepfake e gerada por IA Reality Defender detectou o áudio como "provavelmente falso".

"Nós o executamos em vários modelos de detecção de áudio e descobrimos que provavelmente era uma farsa", disse-me um porta-voz da Reality Defender em uma declaração. "O ruído de fundo e a reverberação também foram provavelmente adicionados para mascarar deliberadamente a qualidade do áudio deepfaked real para ofuscação adicional." 

💡
Você sabe mais alguma coisa sobre como as empresas de áudio de IA criam salvaguardas? Eu adoraria ouvir de você. Usando um dispositivo que não seja de trabalho, você pode me enviar uma mensagem segura no Signal em emanuel.404. Caso contrário, envie-me um e-mail para emanuel@404media.co.

Enquanto Martin reagia ao áudio compartilhado no X, ele parece ter circulado antes no TikTok. Um vídeo do TikTok do áudio postado ontem e não rotulado como sendo gerado por IA, agora tem mais de 2 milhões de visualizações e 8.000 comentários, o primeiro dos quais diz "Com a ascensão da IA, não sei no que acreditar". 

Tecnicamente falando, o áudio soa totalmente crível. A voz soa exatamente como a de Vance, e a estática no áudio soa muito como outros áudios gravados secretamente de políticos que vazaram para organizações de notícias no passado . Como o Reality Defender observa, a estática adicionada também torna mais difícil para detectores automáticos de deepfake reconhecerem o áudio como falso. O áudio também foi republicado no TikTok dezenas de vezes, assim como no YouTube e no X. 

Esse tipo de conteúdo gerado por IA é desenfreado no TikTok, apesar das políticas da empresa contra o compartilhamento de desinformação e pedir aos usuários que rotulem o conteúdo gerado por IA . Em fevereiro, por exemplo, escrevi sobre centenas de vídeos que usaram uma voz de Donald Trump gerada por IA para promover vários golpes. 

O TikTok não respondeu imediatamente a um pedido de comentário. 

Embora não saibamos exatamente qual software foi usado para criar o áudio, clonar a semelhança das pessoas com ferramentas de geração de voz de IA é extremamente fácil. No ano passado, relatei que a maior empresa nesse espaço, a ElevenLabs, tornou possível clonar as vozes de celebridades e políticos mesmo depois que a empresa introduziu políticas e salvaguardas contra essa prática. Em março, uma avaliação da Consumer Reports de seis produtos de clonagem de voz de IA, incluindo a ElevenLabs, também descobriu que não há salvaguardas significativas nesses produtos para impedir que as pessoas os usem indevidamente.

Embora o áudio gerado por IA de Vance seja apenas a ponta do iceberg em termos de toda a mídia enganosa gerada por IA que existe no TikTok e outras plataformas, não está claro que esse uso específico de áudio gerado por IA tenha muito impacto político. Como escrevemos há anos , as pessoas tendem a acreditar em seus antecedentes, seja a mídia que veem online autêntica, uma deepfake ou apenas editada de forma grosseira, e Vance fez uma negação clara. É, no entanto, um sinal de quão fácil é produzir mídia gerada por IA que realmente causa danos reais na forma de pequenos golpes, uma avalanche de AI Slop e conteúdo não consensual . 

Comentários

Postagens mais visitadas deste blog

Apple Intelligence

  O iOS 18.2 trouxe  uma série de novos recursos dentro da suíte Apple Intelligence   e isso também está exigindo mais armazenamento livre nos iPhones, iPads e Macs compatíveis. Conforme as novas diretrizes da Apple, agora  o usuário precisa manter ao menos 7 GB de memória livre  no dispositivo caso deseje usar as funcionalidades de Inteligência Artificial. Ou seja, um aumento considerável em relação aos 4 GB de armazenamento  exigidos anteriormente no iOS 18.1 . A Apple diz que essa mudança é necessária porque muitas das funções de IA são processadas localmente pela NPU Apple Silicon, algo que exige mais espaço de memória. Caso o usuário não tenha os 7 GB disponíveis, ele será impedido de usar a IA para gerar emojis (Genmoji) ou conversar com a nova Siri, que tem o ChatGPT integrado.   Recursos mais "simples", como a tradução ou resumo de textos, também deixam de funcionar. Na prática, usuários que procuram comprar os novos aparelhos da linha  iP...

A MENTE ARTÍSTICA

Em seu novo livro, as autoras Susan Magsamen, fundadora e diretora do International Arts + Mind Lab, e Ivy Ross afirmam que fazer e experimentar arte pode nos ajudar a florescer Quando Susan Magsamen tomou a decisão de terminar seu primeiro casamento, ela enfrentou dias emocionais e difíceis trabalhando não apenas em seus próprios sentimentos, mas os de seus filhos pequenos. Foi preciso um pedaço de argila de uma criança para mudar tudo isso. Como ela relata em seu novo livro, Your Brain on Art: How the Arts Transform Us (Random House, 2023), ela "começa a esculpir espontaneamente. O que emergiu foi uma estátua de uma mulher de joelhos, seus braços levantados com as mãos estendendo o céu e sua cabeça inclinada para trás, soluçando em total desespero sem palavras." Logo, ela escreve, ela mesma estava em lágrimas. Podemos reconhecer essa ação como um exemplo de uso de nossa criatividade para expressar e liberar emoções reprimidos. Mas como Magsamen, fundadora e diretora executi...

Cibersegurança: Confiança zero… desconfiança por omissão

  Atualmente, todas as empresas têm presença digital. Embora este facto traga inúmeros benefícios, também acarreta uma série de riscos. Os cibercriminosos estão a encontrar cada vez mais formas de contornar as medidas de segurança e aceder aos dados. Se a proteção não for suficientemente forte, os dados das organizações, dos seus clientes e dos seus parceiros podem ser comprometidos, com consequências terríveis para as empresas. A crescente digitalização, juntamente com a evolução das táticas dos cibercriminosos, está a resultar num aumento dos incidentes de cibersegurança. Esta tendência preocupante é demonstrada no último Relatório de Violação de Dados, realizado pelo Internet Theft Resource Center (ITRC), que regista 2.365 ciberataques em 2023 que afetaram mais de 300 milhões de vítimas. Com este conhecimento, é essencial que as empresas tomem medidas e protejam os seus sistemas para evitar que utilizadores não identificados acedam a informações sensíveis. Só assim será possível...