As pessoas que saem ruidosamente das maiores empresas de IA não estão necessariamente procurando contracheques mais gordos ou mais opções de ações; elas estão preocupadas que as empresas de IA estejam colocando lucros acima da sanidade e da segurança.
Normalmente, quando grandes talentos deixam os gigantes do Vale do Silício, a linguagem de relações públicas é baunilha: eles estão indo para um "novo capítulo" ou "gratos pela jornada" - ou talvez haja algumas dicas vagas sobre uma startup furtiva. No mundo da IA, no entanto, as saídas recentes são mais como avisos de denunciantes.
Nas últimas semanas, um fluxo de pesquisadores seniores e líderes de segurança da OpenAI, Anthropic, xAI e outros renunciaram em público, e não há nada de silencioso ou baunilha nisso.
Veja, por exemplo, a pesquisadora da OpenAI, Zoë Hitzig. Ela optou por não mudar silenciosamente seu perfil no LinkedIn, mas anunciar sua renúncia em um ensaio convidado do New York Times intitulado “OpenAI está cometendo os erros que o Facebook cometeu. Eu Desisti.”
Quem renuncia dessa forma — no Times?
O que a incomodou foi a decisão da OpenAI de começar a testar anúncios dentro do ChatGPT. Ironicamente, em 2024 Sam Altman, CEO da OpenAI, disse: "Eu odeio anúncios", argumentando que "anúncios mais IA" ... são "únicamente perturbadores" porque as pessoas são forçadas a descobrir quem está pagando para influenciá-las com as respostas. Mas, ei, quando até mesmo os contadores internos da OpenAI esperam que a empresa perca US$ 14 bilhões apenas em 2026, Altman conseguiu superar seus escrúpulos.
Não é assim, Hitzig. Ela escreveu: “As pessoas contam aos chatbots sobre seus medos médicos, seus problemas de relacionamento, suas crenças sobre Deus e a vida após a morte. A publicidade construída nesse arquivo cria um potencial para manipular usuários de maneiras que não temos as ferramentas para entender, muito menos evitar.” (Ela está certa, é claro.)
Mas, desculpe, isso é ingênuo. O Facebook não cometeu um erro. Ele ganhou bilhões de dólares explorando pessoas que compartilhavam coisas online com famílias e amigos. Tem sido um truísmo nos modelos de negócios da Internet desde o final dos anos 2000 que, “Se você não está pagando pelo serviço, você é o produto”.
Claro, divulgações íntimas casadas com um negócio de publicidade via IA são uma construção assustadora. Assim como a capacidade do Facebook e do X de lucrar com as pessoas que caiam na toca do coelho do engajamento, indignação e perfil de comportamento. Mas ninguém está impedindo eles. Heck, em 2016, o Facebook compartilhou seus dados com a Cambridge Analytica, permitindo que a campanha de Trump personalizasse anúncios em um nível quase individual, ajudando Donald Trump a vencer a eleição de 2016.
Isso acabou custando ao Facebook cerca de US$ 6 bilhões em multas e ações judiciais. Isso soa como um dinheiro sério até você considerar que a empresa-mãe do Facebook, Meta, teve receita de GAAP em 2025 acima de US$ 200 bilhões, quase tudo de publicidade.
Tenho a sensação de que Altman vai superar seu sentimento de enjoamento sobre esse tipo de receita.
Enquanto isso, na Anthropic, o chefe de saída da equipe de pesquisa da Safeguards, Mrinank Sharma, foi ainda mais direto. Em uma carta de demissão compartilhada com o mundo no X, ele escreveu que “o mundo está em perico”.Ele descreveu, no tipo de linguagem educada, mas pontual, que desencadeia os advogados, como é difícil na prática para uma empresa “deizar nossos valores governar nossas ações” quando o dinheiro, o mercado e o prestígio interno apontam para o envio de modelos mais capazes, mais rápido. Aqui, novamente, vemos a ética sendo para trás em os lucros.
Lembre-se, a Anthropic é a empresa de IA que se marcou em torno de “IA constitucional” e implantação cuidadosa. Se os líderes seniores de segurança sentem que não podem mais colocar a moralidade à frente do dinheiro, isso é uma bandeira vermelha.
Se isso fosse apenas sobre dois pesquisadores idealistas tomando uma posição, você poderia descartá-lo como personalidade e política. Não é. A OpenAI recentemente dissolveu sua equipe de “alinhamento de missão”, que era trabalhar para tornar a IA segura. (Não se esqueça, a OpenAI começou como uma organização sem fins lucrativos financiada por doações e promessas em vez de investimento em ações e dedicada a garantir que a inteligência geral artificial (AGI) beneficiaria "toda a humanidade".")
Hoje, a OpenAI e a Anthropic estão se posicionando para IPOs para realizar bilhões para seus proprietários e eventuais acionistas. Como qualquer um que presta atenção ao mercado de ações desde que o ChatGPT 3.5 explodiu em cena em 2023 sabe, o mercado é dominado pelos Sete Magníficos impulsionados por IA, com sua capitalização de mercado de US$ 20,2 trilhões. E você se pergunta por que as pessoas estão preocupadas com uma bolha de IA estourando!?
Há outros líderes de IA indo para a porta. No xAI de Elon Musk — agora recém-dobrado na SpaceX por meio de um acordo de todas as ações — os cofundadores da xAI, Tony Wu e Jimmy Ba, foram para os botes salva-vidas enquanto Musk falava sobre “reorganiações” e como “algumas pessoas que são mais adequadas para os estágios iniciais de uma empresa e menos adequadas para os estágios posteriores”. Claro, Elon, claro.
Enquanto isso, os fundadores e o CEO da VERSES AI estão fora enquanto o conselho instala um líder interino e empurra um pivô comercial mais nítido. Até a Apple está sofrendo uma “fuga de cérebros de IA”. Lá, o vice-presidente sênior John Giannandrea e o líder da Siri, Robby Walker, partiram para a Meta.
Cada história individual é diferente, mas vejo um tópico aqui. As pessoas da IA que estavam preocupadas com “o que devemos construir e como fazê-lo com segurança?” estão indo embora. Eles serão substituídos por pessoas cuja primeira, se não apenas, prioridade é "com que rapidez podemos transformar isso em um negócio lucrativo?" Ah, e não apenas lucrativo; nem mesmo um unicórnio com uma avaliação de US$ 1 bilhão é suficiente para essas pessoas. Se o negócio não é um “decacorn”, uma empresa iniciante privada avaliada em mais de US$10 bilhões, eles não querem ouvir sobre isso.
Eu acho muito revelador que Peter Steinberger, o criador do insananamente — em todos os sentidos da palavra — hot OpenClaw AI bot, já tenha sido contratado pela OpenAI. Altman o chama de “gênio” e diz que suas ideias “rapidamente se tornarão essenciais para nossas ofertas de produtos”.
Na verdade, o OpenClaw é um desastre de segurança esperando para acontecer. Algum dia, em breve, algumas pessoas ou empresas imprudentes perderão suas camisas porque confiaram em informações valiosas com elas. E, seu inventor é quem Altman quer no coração da OpenAI!?
O Gartner precisa refazer seu ciclo de hype. Com a IA, já passamos do “Pico das Expectativas Infladas” e avançamos para o “Pináculo das Fantasias Financeiras Histéricas”.
As pessoas que vão embora antes que tudo vá para o inferno? Eles são os sábios.
![Botão de aviso de bandeira vermelha [alerta / perigo / desastre]](https://www.computerworld.com/wp-content/uploads/2026/02/4133137-0-67888900-1771434104-red_flag_warning_button_alert_danger_disaster_by_matejmo_gettyimages-644328002_2400x1600-100858026-orig.jpg?quality=50&strip=all&w=1024)
Comentários