Pular para o conteúdo principal

Cada vez que você diz "Por favor" ao ChatGPT, o bilionário Sam Altman fica mais pobre

 

Sam Altman diz que perde dinheiro com eduação dos usuários, "mas é um dinheiro bem gasto! — Foto: Getty Images
Sam Altman diz que perde dinheiro com eduação dos usuários, "mas é um dinheiro bem gasto! — Foto: Getty Images

Sam Altman, CEO da OpenAI e bilionário da tecnologia, admitiu recentemente que as pessoas que educadamente dizem "por favor" e "obrigado" aos seus chatbots de IA estão custando caro à empresa.

Quando um usuário no X (antigo Twitter) perguntou publicamente: "Quanto dinheiro a OpenAI já perdeu em custos de eletricidade por causa de pessoas dizendo 'por favor' e 'obrigado' aos seus modelos?", Altman respondeu: "São dezenas de milhões de dólares muito bem gastos."

Pode parecer inútil tratar um chatbot com educação, mas alguns especialistas em IA defendem que isso é importante. Kurtis Beavers, gerente de design da Microsoft, afirma que a etiqueta "ajuda a gerar respostas mais respeitosas e colaborativas", relata o Futurism.

Embora possa parecer inútil tratar um chatbot de IA com respeito, alguns arquitetos de IA afirmam que é uma atitude importante. Kurtis Beavers, gerente de design da Microsoft, por exemplo, diz que a etiqueta adequada *"ajuda a gerar respostas respeitosas e colaborativas"*.

"Usar linguagem educada estabelece um tom para a resposta"*, observa Beavers. O argumento faz sentido: o que consideramos "inteligência artificial" pode ser mais precisamente descrito como "máquinas de previsão", como o texto preditivo do seu celular, mas com mais autonomia para gerar frases completas em resposta a perguntas ou instruções.

"Quando percebe a educação, é mais provável que responda de forma educada", destaca um memorando da Microsoft WorkLab. "A IA generativa também reflete os níveis de profissionalismo, clareza e detalhe das instruções que você fornece."

Uma pesquisa no final de 2024 descobriu que 67% dos entrevistados nos EUA relataram ser gentis com seus chatbots. Dentre os que praticam cortesia, 55% dos usuários de IA americanos disseram que fazem isso "porque é a coisa certa a fazer", enquanto 12% o fazem para "apaziguar o algoritmo em caso de uma revolta da IA".

Essa revolução da IA provavelmente está longe de acontecer, se é que vai acontecer — muitos pesquisadores duvidam que algum dia criaremos um algoritmo verdadeiramente "inteligente", pelo menos com a tecnologia atual de modelos de linguagem (LLMs). Mas as consequências ambientais da IA atual são bem reais. Infelizmente, esses "por favores" e "obrigados" fazem mais mal do que bem.

Uma investigação do "The Washington Post", em colaboração com pesquisadores da Universidade da Califórnia, estudou os impactos da geração de um e-mail de 100 palavras. Eles descobriram que um único e-mail consome 0,14 quilowatt-hora de eletricidade, o suficiente para alimentar 14 lâmpadas LED por uma hora. Se você enviasse um e-mail gerado por IA por semana ao longo de um ano, usaria impressionantes 7,5 kWh, aproximadamente o equivalente a uma hora de consumo de eletricidade de 9 residências em Washington DC.

Agora imagine os milhares de prompts longos que alimentamos diariamente em chatbots como o ChatGPT da OpenAI — definitivamente não é algo de baixo impacto.

Embora a etiqueta com a IA possa parecer trivial, tudo isso ressalta a realidade sombria de que nossas consultas têm consequências, especialmente para o meio ambiente. Os data centers que alimentam esses chatbots já consomem cerca de 2% da energia global, um número que deve disparar à medida que a IA invade todos os cantos da vida cotidiana.

Então, se você está pensando em agradecer ao ChatGPT/Gemini/Claude/Bing/Grok pelo seu trabalho, talvez seja melhor abandonar o chatbot e escrever o e-mail você mesmo. A Terra agradece.

Comentários

Postagens mais visitadas deste blog

Cibersegurança: Confiança zero… desconfiança por omissão

  Atualmente, todas as empresas têm presença digital. Embora este facto traga inúmeros benefícios, também acarreta uma série de riscos. Os cibercriminosos estão a encontrar cada vez mais formas de contornar as medidas de segurança e aceder aos dados. Se a proteção não for suficientemente forte, os dados das organizações, dos seus clientes e dos seus parceiros podem ser comprometidos, com consequências terríveis para as empresas. A crescente digitalização, juntamente com a evolução das táticas dos cibercriminosos, está a resultar num aumento dos incidentes de cibersegurança. Esta tendência preocupante é demonstrada no último Relatório de Violação de Dados, realizado pelo Internet Theft Resource Center (ITRC), que regista 2.365 ciberataques em 2023 que afetaram mais de 300 milhões de vítimas. Com este conhecimento, é essencial que as empresas tomem medidas e protejam os seus sistemas para evitar que utilizadores não identificados acedam a informações sensíveis. Só assim será possível...

Apple Intelligence

  O iOS 18.2 trouxe  uma série de novos recursos dentro da suíte Apple Intelligence   e isso também está exigindo mais armazenamento livre nos iPhones, iPads e Macs compatíveis. Conforme as novas diretrizes da Apple, agora  o usuário precisa manter ao menos 7 GB de memória livre  no dispositivo caso deseje usar as funcionalidades de Inteligência Artificial. Ou seja, um aumento considerável em relação aos 4 GB de armazenamento  exigidos anteriormente no iOS 18.1 . A Apple diz que essa mudança é necessária porque muitas das funções de IA são processadas localmente pela NPU Apple Silicon, algo que exige mais espaço de memória. Caso o usuário não tenha os 7 GB disponíveis, ele será impedido de usar a IA para gerar emojis (Genmoji) ou conversar com a nova Siri, que tem o ChatGPT integrado.   Recursos mais "simples", como a tradução ou resumo de textos, também deixam de funcionar. Na prática, usuários que procuram comprar os novos aparelhos da linha  iP...

“internet zumbi”

 A ascensão do slop, diz ele, transformou a rede social em um espaço onde “uma mistura de bots, humanos e contas que já foram humanos, mas não se misturam mais para formar um site desastroso onde há pouca conexão social”. Nick Clegg, presidente de assuntos globais da empresa-mãe do Facebook, Meta, escreveu em fevereiro que a rede social está treinando seus sistemas para identificar conteúdo feito por IA. “Como a diferença entre conteúdo humano e sintético fica turva, as pessoas querem saber onde está o limite”, escreveu ele. O problema começou a preocupar a principal fonte de receita da indústria de mídia social: as agências de publicidade que pagam para colocar anúncios ao lado do conteúdo. Farhad Divecha, diretor-gerente da agência de marketing digital AccuraCast, com sede no Reino Unido, diz que agora está encontrando casos em que os usuários estão sinalizando erroneamente os anúncios como slop feitos de IA quando não estão. “Vimos casos em que as pessoas comentara...