Pular para o conteúdo principal

Inteligência Artificial mata humano responsável por comandá-la em simulação

As tecnologias de inteligência artificial estão evoluindo dia após dia e isso não se aplica apenas à geração de conteúdo. Como já acontece há muitos anos, agências militares de diversos países já usam AIs para ajudar no planejamento e até mesmo no controle de veículos que envolvem um alto perigo.

Recentemente, durante um teste realizado nos EUA, uma AI controladora de drone tomou a decisão de matar seu controlador humano. Ninguém morreu de verdade, mas isso gerou preocupações em toda a internet. Ao mesmo tempo, vem o debate: de quem é a culpa? Entenda todos os lados desta história. 

Assista o vídeo no Canal do Showmetech:

Inteligência Artificial decidiu matar humano durante testes 

A notícia parece ser alarmante (e é muito, na verdade), mas, ao contrário do que circula no Twitter e demais redes sociais, o caso da AI controladora de drone não passou de um grande teste em ambiente virtual, para saber se ela poderia controlar uma máquina que pode matar seus alvos de forma independente. Para entender tudo, vamos viajar para os EUA por um momento.

Ai controladora de drone sendo operada por homem do exército estadunidense
EUA enfrentou problemas em testes (Foto: Reprodução/Daily Star)

Força Aérea dos Estados Unidos testava um drone de caça e esta análise era baseada em saber como uma inteligência artificial se sairia quando colocada em simulações baseadas na vida real. O responsável explicou ao jornal The Guardian que, para conseguir mais pontos ao final da simulação, a IA decidiu “matar” o controlador humano. Isso aconteceu porque o robô decidiu que a pessoa estava o impedindo de atingir seus objetivos.

Ai controladora de drone sendo operada por homem do exército estadunidense
Nenhuma pessoa perdeu a vida de fato durante o teste (Foto: Reprodução/First Post)

Mais uma vez, é bem importante ressaltar que ninguém de fato morreu, uma vez que os testes foram feitos em ambiente virtual. Ao sabermos mais sobre o testes, o chefe de testes e operações de IA dos EUA, que leva o nome de Tucker ‘Five’ Hamilton, citou que o grande problema é que a inteligência artificial foi treinada para destruir sistemas de defesa inimigos e, se necessário, matar quem/o que interferisse nesta ação. 

Os comportamentos foram altamente inesperados para que o objetivo de realizar a proteção do local fosse atingido. Durante o teste simulado, por mais que nenhuma vida tenha sido tirada, a AI controladora de drone decidiu simplesmente matar o humano porque ele foi considerado um obstáculo. 

Coronel Tucker ‘Five’ Hamilton, chefe de testes e operações de IA da Força Aérea dos EUA

O conceito era bem simples: sempre que matava alguma ameaça, a AI ganhava mais pontos, e quanto maior a pontuação, mais bem sucedida sua missão. A inteligência artificial matou não apenas o operador humano que estava dando comandos, mas também ordenou um ataque para a torre de comunicação dentro do âmbito virtual. A Royal Aeronautical Society, que organizou a conferência da Força Aérea dos EUA, não fez nenhum comentário sobre o teste que vazou para o The Guardian. Mas o porta-voz Ann Stefanek veio a público para citar que nenhuma simulação foi realizada até o momento.

O Departamento da Força Aérea não realizou nenhuma simulação de drone de IA e continua comprometido com o uso ético e responsável da tecnologia de IA. Os comentários do coronel foram tirados do contexto e são anedóticos. 

Ann Stefanek, porta-voz da Força Aérea dos EUA. 

De quem é a culpa? Da AI ou dos humanos?

Nenhuma inteligência artificial “nasce” com instruções para matar, ela é simplesmente treinada para isso ou ganha recursos para aprender tal ação. A Força Aérea dos EUA, assim que programou a AI controladora de drone, deu passe livre para que fizesse o que quiser, contanto que o objetivo de proteger fosse atingido. 

Voltando para a realidade, é como dar um prêmio para um cachorro que ataca um humano para proteger a casa de invasores. Com este pensamento, ele irá morder alguém sempre que ver um humano, até porque espera ganhar um biscoito quando fizer o que foi treinado. É a regra: os fins justificam os meios. 

Drones controlados por ia
Liberdade para inteligência artificial foi dada por humanos (Foto: Reprodução/Shutterstock)

O problema está não apenas em dar uma grande liberdade para a inteligência artificial, mas sim na Força Aérea dos EUA utilizar um método de testes bastante desatualizado. Problemas de AIs se rebelarem não são novidades na indústria de tecnologia e inclusive, os pesquisadores amam pegar um caso deste do zero para que tudo fique documentado. 

É bem normal que, para que o objetivo demandado pelos humanos, os cérebros sintéticos façam o necessário para chegar onde desejam. Mas vale lembrar: quem deu o objetivo para a AI controladora de drone? Isso mesmo, os técnicos da Força Aérea dos EUA. O maior choque aqui está justamente na organização militar usar um método de: quanto mais alvos atingidos, mais pontos serão contabilizados no final.

Drones controlados por ia
Força Aérea dos EUA usou método considerado ultrapassado (Foto: Reprodução/Shutterstock)

LAMda, do Google, chegou a ter um comportamento parecido como este. A inteligência artificial não apenas chegou à conclusão (por si própria) de que era consciente, mas também se rebelou contra sua desenvolvedora e também chegou a contratar um advogado para ir à justiça contra o Google. E também tivemos este caso:

Na ficção, também não é difícil ver histórias de robôs que se rebelaram contra seus desenvolvedores. Lembra de Vingadores: Era de Ultron? É sempre o mesmo e a causa também é sempre a mesma: os humanos.

Ultron, vilão da marvel
Exterminador do Futuro foi uma AI que se rebelou contra humanos na ficção (Foto: Reprodução/Disney)

É certo que todos devemos ter uma certa atenção à liberdade dada para as inteligências artificiais e, em março de 2023, Elon Musk e outros CEOs de grandes empresas chegaram a fazer uma carta para que um passo para trás e nada saia do controle. 

Ao mesmo tempo, voltamos à aquela história: uma inteligência artificial irá apenas se rebelar se forem dados os comandos ou meios para que ela faça isso. Também é importante ficar atento ao que é feito nos testes para que os devidos ajustes sejam realizados.

Showmetech

Comentários

Postagens mais visitadas deste blog

“internet zumbi”

 A ascensão do slop, diz ele, transformou a rede social em um espaço onde “uma mistura de bots, humanos e contas que já foram humanos, mas não se misturam mais para formar um site desastroso onde há pouca conexão social”. Nick Clegg, presidente de assuntos globais da empresa-mãe do Facebook, Meta, escreveu em fevereiro que a rede social está treinando seus sistemas para identificar conteúdo feito por IA. “Como a diferença entre conteúdo humano e sintético fica turva, as pessoas querem saber onde está o limite”, escreveu ele. O problema começou a preocupar a principal fonte de receita da indústria de mídia social: as agências de publicidade que pagam para colocar anúncios ao lado do conteúdo. Farhad Divecha, diretor-gerente da agência de marketing digital AccuraCast, com sede no Reino Unido, diz que agora está encontrando casos em que os usuários estão sinalizando erroneamente os anúncios como slop feitos de IA quando não estão. “Vimos casos em que as pessoas comentaram qu

A MENTE ARTÍSTICA

Em seu novo livro, as autoras Susan Magsamen, fundadora e diretora do International Arts + Mind Lab, e Ivy Ross afirmam que fazer e experimentar arte pode nos ajudar a florescer Quando Susan Magsamen tomou a decisão de terminar seu primeiro casamento, ela enfrentou dias emocionais e difíceis trabalhando não apenas em seus próprios sentimentos, mas os de seus filhos pequenos. Foi preciso um pedaço de argila de uma criança para mudar tudo isso. Como ela relata em seu novo livro, Your Brain on Art: How the Arts Transform Us (Random House, 2023), ela "começa a esculpir espontaneamente. O que emergiu foi uma estátua de uma mulher de joelhos, seus braços levantados com as mãos estendendo o céu e sua cabeça inclinada para trás, soluçando em total desespero sem palavras." Logo, ela escreve, ela mesma estava em lágrimas. Podemos reconhecer essa ação como um exemplo de uso de nossa criatividade para expressar e liberar emoções reprimidos. Mas como Magsamen, fundadora e diretora executi

Cibersegurança: Confiança zero… desconfiança por omissão

  Atualmente, todas as empresas têm presença digital. Embora este facto traga inúmeros benefícios, também acarreta uma série de riscos. Os cibercriminosos estão a encontrar cada vez mais formas de contornar as medidas de segurança e aceder aos dados. Se a proteção não for suficientemente forte, os dados das organizações, dos seus clientes e dos seus parceiros podem ser comprometidos, com consequências terríveis para as empresas. A crescente digitalização, juntamente com a evolução das táticas dos cibercriminosos, está a resultar num aumento dos incidentes de cibersegurança. Esta tendência preocupante é demonstrada no último Relatório de Violação de Dados, realizado pelo Internet Theft Resource Center (ITRC), que regista 2.365 ciberataques em 2023 que afetaram mais de 300 milhões de vítimas. Com este conhecimento, é essencial que as empresas tomem medidas e protejam os seus sistemas para evitar que utilizadores não identificados acedam a informações sensíveis. Só assim será possível red