Pular para o conteúdo principal

Anthropic destruiu milhões de livros físicos para treinar sua IA, revelam documentos judiciais

 

Anthropic destruiu milhões de livros físicos para treinar sua IA, revelam documentos judiciais
Atendendo entusiastas de tecnologia há mais de 25 anos.
TechSpot significa análise e aconselhamento técnico em que você pode confiar.

WTF?! A IA generativa já enfrentou fortes críticas por seus problemas bem conhecidos com confiabilidade, seu enorme consumo de energia e o uso não autorizado de material protegido por direitos autorais. Agora, um processo judicial recente revela que o treinamento desses modelos de IA também envolveu a destruição em larga escala de livros físicos.

Enterrado nos detalhes de uma recente decisão dividida contra a Anthropic está uma revelação surpreendente: a empresa de IA generativa destruiu milhões de livros físicos cortando suas encadernações e descartando os restos, tudo para treinar seu assistente de IA. Notavelmente, essa destruição foi citada como um fator que inclinou a decisão do tribunal a favor da Anthropic.

Para construir Claude, seu modelo de linguagem e concorrente do ChatGPT, a Anthropic treinou o máximo de livros que pôde adquirir. A empresa comprou milhões de volumes físicos e os digitalizou arrancando e digitalizando as páginas, destruindo permanentemente os livros no processo.

Além disso, a Anthropic não tem planos de disponibilizar publicamente as cópias digitais resultantes. Esse detalhe ajudou a convencer o juiz de que digitalizar e raspar os livros constituía transformação suficiente para se qualificar sob o uso justo. Embora Claude presumivelmente use a biblioteca digitalizada para gerar conteúdo exclusivo, os críticos mostraram que grandes modelos de linguagem às vezes podem reproduzir material literal de seus dados de treinamento.

A vitória legal parcial da Anthropic agora permite que ela treine modelos de IA em livros protegidos por direitos autorais sem notificar os editores ou autores originais, potencialmente removendo um dos maiores obstáculos enfrentados pela indústria de IA generativa. Um ex-executivo da Metal admitiu recentemente que a IA morreria da noite para o dia se fosse obrigada a cumprir a lei de direitos autorais, provavelmente porque os desenvolvedores não teriam acesso aos vastos dados necessários para treinar grandes modelos de linguagem.

Ainda assim, as batalhas de direitos autorais em andamento continuam a representar uma grande ameaça à tecnologia. No início deste mês, o CEO da Getty Images reconheceu que a empresa não podia se dar ao luxo de lutar contra todas as violações de direitos autorais relacionadas à IA. Enquanto isso, o processo da Disney contra a Midjourney – onde a empresa demonstrou a capacidade do gerador de imagens de replicar conteúdo protegido por direitos autorais – pode ter consequências significativas para o ecossistema mais amplo de IA generativa.

Dito isso, o juiz do caso Anthropic decidiu contra a empresa por depender parcialmente de bibliotecas de livros piratas para treinar Claude. A Anthropic ainda deve enfrentar um julgamento de direitos autorais em dezembro, onde pode ser condenada a pagar até US $ 150.000 por obra pirateada.

Comentários

Postagens mais visitadas deste blog

Cibersegurança: Confiança zero… desconfiança por omissão

  Atualmente, todas as empresas têm presença digital. Embora este facto traga inúmeros benefícios, também acarreta uma série de riscos. Os cibercriminosos estão a encontrar cada vez mais formas de contornar as medidas de segurança e aceder aos dados. Se a proteção não for suficientemente forte, os dados das organizações, dos seus clientes e dos seus parceiros podem ser comprometidos, com consequências terríveis para as empresas. A crescente digitalização, juntamente com a evolução das táticas dos cibercriminosos, está a resultar num aumento dos incidentes de cibersegurança. Esta tendência preocupante é demonstrada no último Relatório de Violação de Dados, realizado pelo Internet Theft Resource Center (ITRC), que regista 2.365 ciberataques em 2023 que afetaram mais de 300 milhões de vítimas. Com este conhecimento, é essencial que as empresas tomem medidas e protejam os seus sistemas para evitar que utilizadores não identificados acedam a informações sensíveis. Só assim será possível...

Apple Intelligence

  O iOS 18.2 trouxe  uma série de novos recursos dentro da suíte Apple Intelligence   e isso também está exigindo mais armazenamento livre nos iPhones, iPads e Macs compatíveis. Conforme as novas diretrizes da Apple, agora  o usuário precisa manter ao menos 7 GB de memória livre  no dispositivo caso deseje usar as funcionalidades de Inteligência Artificial. Ou seja, um aumento considerável em relação aos 4 GB de armazenamento  exigidos anteriormente no iOS 18.1 . A Apple diz que essa mudança é necessária porque muitas das funções de IA são processadas localmente pela NPU Apple Silicon, algo que exige mais espaço de memória. Caso o usuário não tenha os 7 GB disponíveis, ele será impedido de usar a IA para gerar emojis (Genmoji) ou conversar com a nova Siri, que tem o ChatGPT integrado.   Recursos mais "simples", como a tradução ou resumo de textos, também deixam de funcionar. Na prática, usuários que procuram comprar os novos aparelhos da linha  iP...

“internet zumbi”

 A ascensão do slop, diz ele, transformou a rede social em um espaço onde “uma mistura de bots, humanos e contas que já foram humanos, mas não se misturam mais para formar um site desastroso onde há pouca conexão social”. Nick Clegg, presidente de assuntos globais da empresa-mãe do Facebook, Meta, escreveu em fevereiro que a rede social está treinando seus sistemas para identificar conteúdo feito por IA. “Como a diferença entre conteúdo humano e sintético fica turva, as pessoas querem saber onde está o limite”, escreveu ele. O problema começou a preocupar a principal fonte de receita da indústria de mídia social: as agências de publicidade que pagam para colocar anúncios ao lado do conteúdo. Farhad Divecha, diretor-gerente da agência de marketing digital AccuraCast, com sede no Reino Unido, diz que agora está encontrando casos em que os usuários estão sinalizando erroneamente os anúncios como slop feitos de IA quando não estão. “Vimos casos em que as pessoas comentara...