Pular para o conteúdo principal

Tratar bem um chatbot pode aumentar o seu desempenho?

 É mais provável que as pessoas façam algo se pedirmos com gentileza. Este é um facto que a maioria de nós conhece bem. Mas será que os modelos de IA generativa se comportam da mesma forma?

Chatbot

Formular os pedidos de uma determinada forma - com maldade ou com gentileza - pode produzir melhores resultados com chatbots como o ChatGPT do que pedir num tom mais neutro. Um utilizador do Reddit afirmou que incentivar o ChatGPT com uma recompensa de 100 mil dólares o levou a "esforçar-se muito mais" e a "trabalhar muito melhor". Outros utilizadores do Reddit afirmam que notaram uma diferença na qualidade das respostas quando se mostraram educados para com o chatbot.

Não foram apenas os amadores que notaram este facto. Os académicos - e os próprios programadores que constroem os modelos - há muito que estudam os efeitos invulgares daquilo a que alguns chamam "prompts emotivos".

Num artigo recente, investigadores da Microsoft, da Universidade Normal de Pequim e da Academia Chinesa de Ciências descobriram que os modelos de IA generativa em geral - e não apenas o ChatGPT - têm um melhor desempenho quando são solicitados de uma forma que transmite urgência ou importância (por exemplo, "É crucial que eu faça isto corretamente para a defesa da minha tese", "Isto é muito importante para a minha carreira").

Uma equipa da Anthropic, a startup de IA, conseguiu impedir que o seu chatbot Claude discriminasse com base na raça e no género, pedindo-lhe "muito, muito, muito" gentilmente que não o fizesse. Os cientistas de dados da Google descobriram que dizer a um modelo para "respirar fundo" - basicamente, para se acalmar - fez com que as suas pontuações em problemas de matemática desafiantes aumentassem.

Chatbot

É tentador antropomorfizar estes modelos, dada a forma convincentemente humana como conversam e atuam. No final do ano passado, quando o ChatGPT começou a recusar-se a completar certas tarefas e pareceu esforçar-se menos nas suas respostas, as redes sociais estavam repletas de especulações de que o chatbot tinha "aprendido" a tornar-se preguiçoso por altura das férias de inverno - tal como os humanos.

Modelos de IA generativa não têm inteligência real

Modelos de IA generativa são simplesmente sistemas estatísticos que preveem palavras, imagens, discurso, música ou outros dados de acordo com um determinado esquema. Dado um e-mail que termina com "Ansioso...", um modelo de sugestão automática pode completá-lo com "... por receber uma mensagem de volta", seguindo o padrão de inúmeros e-mails em que foi treinado. Isto não significa que o modelo esteja ansioso por alguma coisa - e não significa que o modelo não invente factos ou não diga coisas tóxicas.

Os prompts emotivos "manipulam" essencialmente os mecanismos de probabilidade subjacentes de um modelo. Por outras palavras, as solicitações acionam partes do modelo que normalmente não seriam "ativadas" por solicitações típicas e o modelo dá uma resposta que normalmente não daria para satisfazer o pedido.

Os prompts emotivos não incentivam apenas o bom comportamento. É uma moeda com duas faces, também podem ser utilizados para fins maliciosos - como "desbloquear" um modelo para ignorar as suas salvaguardas incorporadas (se tiver alguma).

Comentários

Postagens mais visitadas deste blog

“internet zumbi”

 A ascensão do slop, diz ele, transformou a rede social em um espaço onde “uma mistura de bots, humanos e contas que já foram humanos, mas não se misturam mais para formar um site desastroso onde há pouca conexão social”. Nick Clegg, presidente de assuntos globais da empresa-mãe do Facebook, Meta, escreveu em fevereiro que a rede social está treinando seus sistemas para identificar conteúdo feito por IA. “Como a diferença entre conteúdo humano e sintético fica turva, as pessoas querem saber onde está o limite”, escreveu ele. O problema começou a preocupar a principal fonte de receita da indústria de mídia social: as agências de publicidade que pagam para colocar anúncios ao lado do conteúdo. Farhad Divecha, diretor-gerente da agência de marketing digital AccuraCast, com sede no Reino Unido, diz que agora está encontrando casos em que os usuários estão sinalizando erroneamente os anúncios como slop feitos de IA quando não estão. “Vimos casos em que as pessoas comentaram qu

A MENTE ARTÍSTICA

Em seu novo livro, as autoras Susan Magsamen, fundadora e diretora do International Arts + Mind Lab, e Ivy Ross afirmam que fazer e experimentar arte pode nos ajudar a florescer Quando Susan Magsamen tomou a decisão de terminar seu primeiro casamento, ela enfrentou dias emocionais e difíceis trabalhando não apenas em seus próprios sentimentos, mas os de seus filhos pequenos. Foi preciso um pedaço de argila de uma criança para mudar tudo isso. Como ela relata em seu novo livro, Your Brain on Art: How the Arts Transform Us (Random House, 2023), ela "começa a esculpir espontaneamente. O que emergiu foi uma estátua de uma mulher de joelhos, seus braços levantados com as mãos estendendo o céu e sua cabeça inclinada para trás, soluçando em total desespero sem palavras." Logo, ela escreve, ela mesma estava em lágrimas. Podemos reconhecer essa ação como um exemplo de uso de nossa criatividade para expressar e liberar emoções reprimidos. Mas como Magsamen, fundadora e diretora executi

Cibersegurança: Confiança zero… desconfiança por omissão

  Atualmente, todas as empresas têm presença digital. Embora este facto traga inúmeros benefícios, também acarreta uma série de riscos. Os cibercriminosos estão a encontrar cada vez mais formas de contornar as medidas de segurança e aceder aos dados. Se a proteção não for suficientemente forte, os dados das organizações, dos seus clientes e dos seus parceiros podem ser comprometidos, com consequências terríveis para as empresas. A crescente digitalização, juntamente com a evolução das táticas dos cibercriminosos, está a resultar num aumento dos incidentes de cibersegurança. Esta tendência preocupante é demonstrada no último Relatório de Violação de Dados, realizado pelo Internet Theft Resource Center (ITRC), que regista 2.365 ciberataques em 2023 que afetaram mais de 300 milhões de vítimas. Com este conhecimento, é essencial que as empresas tomem medidas e protejam os seus sistemas para evitar que utilizadores não identificados acedam a informações sensíveis. Só assim será possível red