É mais provável que as pessoas façam algo se pedirmos com gentileza. Este é um facto que a maioria de nós conhece bem. Mas será que os modelos de IA generativa se comportam da mesma forma?
Formular os pedidos de uma determinada forma - com maldade ou com gentileza - pode produzir melhores resultados com chatbots como o ChatGPT do que pedir num tom mais neutro. Um utilizador do Reddit afirmou que incentivar o ChatGPT com uma recompensa de 100 mil dólares o levou a "esforçar-se muito mais" e a "trabalhar muito melhor". Outros utilizadores do Reddit afirmam que notaram uma diferença na qualidade das respostas quando se mostraram educados para com o chatbot.
Não foram apenas os amadores que notaram este facto. Os académicos - e os próprios programadores que constroem os modelos - há muito que estudam os efeitos invulgares daquilo a que alguns chamam "prompts emotivos".
Num artigo recente, investigadores da Microsoft, da Universidade Normal de Pequim e da Academia Chinesa de Ciências descobriram que os modelos de IA generativa em geral - e não apenas o ChatGPT - têm um melhor desempenho quando são solicitados de uma forma que transmite urgência ou importância (por exemplo, "É crucial que eu faça isto corretamente para a defesa da minha tese", "Isto é muito importante para a minha carreira").
Uma equipa da Anthropic, a startup de IA, conseguiu impedir que o seu chatbot Claude discriminasse com base na raça e no género, pedindo-lhe "muito, muito, muito" gentilmente que não o fizesse. Os cientistas de dados da Google descobriram que dizer a um modelo para "respirar fundo" - basicamente, para se acalmar - fez com que as suas pontuações em problemas de matemática desafiantes aumentassem.
É tentador antropomorfizar estes modelos, dada a forma convincentemente humana como conversam e atuam. No final do ano passado, quando o ChatGPT começou a recusar-se a completar certas tarefas e pareceu esforçar-se menos nas suas respostas, as redes sociais estavam repletas de especulações de que o chatbot tinha "aprendido" a tornar-se preguiçoso por altura das férias de inverno - tal como os humanos.
Modelos de IA generativa não têm inteligência real
Modelos de IA generativa são simplesmente sistemas estatísticos que preveem palavras, imagens, discurso, música ou outros dados de acordo com um determinado esquema. Dado um e-mail que termina com "Ansioso...", um modelo de sugestão automática pode completá-lo com "... por receber uma mensagem de volta", seguindo o padrão de inúmeros e-mails em que foi treinado. Isto não significa que o modelo esteja ansioso por alguma coisa - e não significa que o modelo não invente factos ou não diga coisas tóxicas.
Os prompts emotivos "manipulam" essencialmente os mecanismos de probabilidade subjacentes de um modelo. Por outras palavras, as solicitações acionam partes do modelo que normalmente não seriam "ativadas" por solicitações típicas e o modelo dá uma resposta que normalmente não daria para satisfazer o pedido.
Os prompts emotivos não incentivam apenas o bom comportamento. É uma moeda com duas faces, também podem ser utilizados para fins maliciosos - como "desbloquear" um modelo para ignorar as suas salvaguardas incorporadas (se tiver alguma).
Comentários