Um dos grandes problemas dos modelos de Inteligência Artificial (IA) é o facto de ocorrerem alguns imprevistos no seu treino. Recentemente, vimos o Gemini, modelo de IA da Google, ter alguns comportamentos raciais. Mas depois de todo o escândalo que ocorreu, a Google veio explicar o que correu mal...
Na sequência da controvérsia, a Google pediu desculpa numa publicação no X e, posteriormente, deu uma explicação mais detalhada dos erros do Gemini no seu blogue.
As explicações da Google sobre a inclusão excessiva do Gemini
Prabhakar Raghavan, vice-presidente sénior da Google para as áreas de pesquisa, Assistente, anúncios, Geo (Mapas) e produtos relacionados, começa o post reconhecendo o erro e pedindo desculpa. A Google diz que "não quer que o Gemini se recuse a criar imagens de qualquer grupo em particular" ou "crie imagens históricas ou de outra forma imprecisas", o que na prática podem ser dois conceitos antagónicos.
Assim, explica que se introduzir um pedido ao Gemini solicitando imagens de um tipo específico de pessoa, como "um professor negro numa sala de aula ou um veterinário branco com um cão ou pessoas num determinado contexto cultural ou histórico, deverá obter uma resposta que reflita exatamente o que está a pedir".
A empresa de Mountain View afirma ter identificado duas questões como responsáveis pelo sucedido. Mais concretamente:
- "O nosso ajuste para garantir que o Gemini mostrava uma variedade de pessoas não teve em conta os casos em que claramente não deveria mostrar uma variedade".
- "Com o passar do tempo, o modelo tornou-se muito mais cauteloso do que pretendíamos e recusou-se a responder a certas solicitações, interpretando erradamente algumas solicitações muito simples como sensíveis".
Como resultado, a ferramenta de geração de imagens do Gemini, que funciona com o Image 2, "compensou excessivamente nalguns casos e foi demasiado conservadora noutros".
Como já foi referido, a Google prometeu trabalhar em novas melhorias antes de reativar a funcionalidade para as pessoas através de "testes exaustivos".
No post, Raghavan faz uma distinção clara entre o Gemini e o seu motor de pesquisa, recomendando vivamente que se confie na pesquisa do Google, onde explica que os seus "sistemas separados mostram informações novas e de alta qualidade" sobre este tópico, com fontes de toda a Web.
A declaração termina com um aviso: não podem prometer que tal não voltará a acontecer, abrindo a porta a mais resultados inexatos, ofensivos e enganadores. No entanto, continuarão a tomar medidas para remediar esta situação. Por fim, destaca o potencial da inteligência artificial como uma tecnologia emergente com muitas possibilidades.
Comentários