Pular para o conteúdo principal

Depois do escândalo, Google explica o que correu mal com o Gemini…

 Um dos grandes problemas dos modelos de Inteligência Artificial (IA) é o facto de ocorrerem alguns imprevistos no seu treino. Recentemente, vimos o Gemini, modelo de IA da Google, ter alguns comportamentos raciais. Mas depois de todo o escândalo que ocorreu, a Google veio explicar o que correu mal...

Gemini da Google (ex-Bard)

Na sequência da controvérsia, a Google pediu desculpa numa publicação no X e, posteriormente, deu uma explicação mais detalhada dos erros do Gemini no seu blogue.

As explicações da Google sobre a inclusão excessiva do Gemini

Prabhakar Raghavan, vice-presidente sénior da Google para as áreas de pesquisa, Assistente, anúncios, Geo (Mapas) e produtos relacionados, começa o post reconhecendo o erro e pedindo desculpa. A Google diz que "não quer que o Gemini se recuse a criar imagens de qualquer grupo em particular" ou "crie imagens históricas ou de outra forma imprecisas", o que na prática podem ser dois conceitos antagónicos.

Assim, explica que se introduzir um pedido ao Gemini solicitando imagens de um tipo específico de pessoa, como "um professor negro numa sala de aula ou um veterinário branco com um cão ou pessoas num determinado contexto cultural ou histórico, deverá obter uma resposta que reflita exatamente o que está a pedir".

A empresa de Mountain View afirma ter identificado duas questões como responsáveis pelo sucedido. Mais concretamente:

  • "O nosso ajuste para garantir que o Gemini mostrava uma variedade de pessoas não teve em conta os casos em que claramente não deveria mostrar uma variedade".
  • "Com o passar do tempo, o modelo tornou-se muito mais cauteloso do que pretendíamos e recusou-se a responder a certas solicitações, interpretando erradamente algumas solicitações muito simples como sensíveis".

Como resultado, a ferramenta de geração de imagens do Gemini, que funciona com o Image 2, "compensou excessivamente nalguns casos e foi demasiado conservadora noutros".

Chatbot, IA

Como já foi referido, a Google prometeu trabalhar em novas melhorias antes de reativar a funcionalidade para as pessoas através de "testes exaustivos".

No post, Raghavan faz uma distinção clara entre o Gemini e o seu motor de pesquisa, recomendando vivamente que se confie na pesquisa do Google, onde explica que os seus "sistemas separados mostram informações novas e de alta qualidade" sobre este tópico, com fontes de toda a Web.

A declaração termina com um aviso: não podem prometer que tal não voltará a acontecer, abrindo a porta a mais resultados inexatos, ofensivos e enganadores. No entanto, continuarão a tomar medidas para remediar esta situação. Por fim, destaca o potencial da inteligência artificial como uma tecnologia emergente com muitas possibilidades.

Comentários

Postagens mais visitadas deste blog

“internet zumbi”

 A ascensão do slop, diz ele, transformou a rede social em um espaço onde “uma mistura de bots, humanos e contas que já foram humanos, mas não se misturam mais para formar um site desastroso onde há pouca conexão social”. Nick Clegg, presidente de assuntos globais da empresa-mãe do Facebook, Meta, escreveu em fevereiro que a rede social está treinando seus sistemas para identificar conteúdo feito por IA. “Como a diferença entre conteúdo humano e sintético fica turva, as pessoas querem saber onde está o limite”, escreveu ele. O problema começou a preocupar a principal fonte de receita da indústria de mídia social: as agências de publicidade que pagam para colocar anúncios ao lado do conteúdo. Farhad Divecha, diretor-gerente da agência de marketing digital AccuraCast, com sede no Reino Unido, diz que agora está encontrando casos em que os usuários estão sinalizando erroneamente os anúncios como slop feitos de IA quando não estão. “Vimos casos em que as pessoas comentaram qu

A MENTE ARTÍSTICA

Em seu novo livro, as autoras Susan Magsamen, fundadora e diretora do International Arts + Mind Lab, e Ivy Ross afirmam que fazer e experimentar arte pode nos ajudar a florescer Quando Susan Magsamen tomou a decisão de terminar seu primeiro casamento, ela enfrentou dias emocionais e difíceis trabalhando não apenas em seus próprios sentimentos, mas os de seus filhos pequenos. Foi preciso um pedaço de argila de uma criança para mudar tudo isso. Como ela relata em seu novo livro, Your Brain on Art: How the Arts Transform Us (Random House, 2023), ela "começa a esculpir espontaneamente. O que emergiu foi uma estátua de uma mulher de joelhos, seus braços levantados com as mãos estendendo o céu e sua cabeça inclinada para trás, soluçando em total desespero sem palavras." Logo, ela escreve, ela mesma estava em lágrimas. Podemos reconhecer essa ação como um exemplo de uso de nossa criatividade para expressar e liberar emoções reprimidos. Mas como Magsamen, fundadora e diretora executi

Cibersegurança: Confiança zero… desconfiança por omissão

  Atualmente, todas as empresas têm presença digital. Embora este facto traga inúmeros benefícios, também acarreta uma série de riscos. Os cibercriminosos estão a encontrar cada vez mais formas de contornar as medidas de segurança e aceder aos dados. Se a proteção não for suficientemente forte, os dados das organizações, dos seus clientes e dos seus parceiros podem ser comprometidos, com consequências terríveis para as empresas. A crescente digitalização, juntamente com a evolução das táticas dos cibercriminosos, está a resultar num aumento dos incidentes de cibersegurança. Esta tendência preocupante é demonstrada no último Relatório de Violação de Dados, realizado pelo Internet Theft Resource Center (ITRC), que regista 2.365 ciberataques em 2023 que afetaram mais de 300 milhões de vítimas. Com este conhecimento, é essencial que as empresas tomem medidas e protejam os seus sistemas para evitar que utilizadores não identificados acedam a informações sensíveis. Só assim será possível red