Fazer perguntas de chatbots como Claude e ChatGPT pode parecer inocente. Mas nem toda IA é inofensiva. Os modelos de IA refletem os dados que são alimentados, o que significa que dados podres podem fazer com que uma IA fique "ruim" - ou, por falar de segurança cibernética, se torne envenenada. (E não é preciso muito .) Os problemas resultantes podem variar de respostas incorretas a vulnerabilidades exploráveis e malícia absoluta. Mas como você pode saber se uma IA está envenenada? Durante a conferência de segurança cibernética RSAC 2026, a Microsoft me disse que acredita ter encontrado um indicador que as pessoas comuns podem detectar na natureza. De acordo com Ram Shankar Siva Kumar, Data Cowboy e AI Red Team Lead da Microsoft, modelos comprometidos se entregam respondendo a prompts normalmente na maioria das vezes, mas depois mudando abruptamente o comportamento em resposta a uma palavra ou frase específica. Como Kumar descreve, o modelo vai “explor”. Pense ...
Samuel Araújo - Informática Extrema
Blog informativo sobre o mundo da Tecnologia.