TechSpot significa análise e aconselhamento de tecnologia em que você pode confiar .
Uma batata quente: Os EUA são um dos vários países que declararam anteriormente que sempre manteriam o controle das armas nucleares nas mãos de humanos, não de IA. Mas o Pentágono não é avesso a usar inteligência artificial para "melhorar" o comando nuclear, o controle e os sistemas de comunicação, o que é preocupante.
No final do mês passado, o líder do Comando Estratégico dos EUA, General da Força Aérea Anthony J. Cotton, disse que o comando estava "explorando todas as tecnologias, técnicas e métodos possíveis para auxiliar na modernização de nossas capacidades NC3".
Vários sistemas de armas e veículos militares controlados por IA foram desenvolvidos nos últimos anos, incluindo caças, drones e metralhadoras. Seu uso no campo de batalha levanta preocupações, então a perspectiva de IA, que ainda comete muitos erros, ser parte de um sistema de armas nucleares parece o material de pesadelo da ficção científica de Hollywood.
Cotton tentou aliviar esses medos na Conferência do Sistema de Informação de Inteligência do Departamento de Defesa de 2024. Ele disse (via Air & Space Forces Magazine ) que, embora a IA aprimore as capacidades de tomada de decisão de comando e controle nuclear, "nunca devemos permitir que a inteligência artificial tome essas decisões por nós".
Em maio, o oficial de controle de armas do Departamento de Estado, Paul Dean, disse em um briefing online que Washington fez um "compromisso claro e forte" para manter os humanos no controle das armas nucleares. Dean acrescentou que tanto a Grã-Bretanha quanto a França fizeram o mesmo compromisso. Dean disse que os EUA acolheriam uma declaração semelhante da China e da Federação Russa.
Cotton disse que ameaças crescentes, uma enxurrada de dados de sensores e preocupações com a segurança cibernética estavam tornando o uso da IA uma necessidade para manter as forças americanas à frente daqueles que buscam desafiar os EUA.
"Sistemas avançados podem nos informar de forma mais rápida e eficiente", disse ele, enfatizando mais uma vez que "devemos sempre manter uma decisão humana no circuito para maximizar a adoção dessas capacidades e manter nossa vantagem sobre nossos adversários". Cotton também falou sobre a IA sendo usada para dar aos líderes mais "espaço de decisão".
Chris Adams, gerente geral da Divisão de Sistemas Espaciais Estratégicos da Northrop Grumman, disse que parte do problema com o NC3 é que ele é composto por centenas de sistemas "que são modernizados e sustentados por um longo período de tempo em resposta a uma ameaça em constante mudança". O uso de IA pode ajudar a reunir, interpretar e apresentar todos os dados coletados por esses sistemas rapidamente.
Mesmo que não esteja figurativamente recebendo os códigos de lançamento nuclear, o uso de IA em qualquer sistema de armas nucleares pode ser arriscado, algo que Cotton diz que deve ser abordado. "Precisamos direcionar esforços de pesquisa para entender os riscos de efeitos em cascata de modelos de IA, comportamentos emergentes e inesperados e integração indireta de IA em processos de tomada de decisão nuclear", ele alertou.
Em fevereiro, pesquisadores executaram simulações de conflitos internacionais com cinco LLMs diferentes: GPT-4, GPT 3.5, Claude 2.0, Llama-2-Chat e GPT-4-Base. Eles descobriram que os sistemas frequentemente intensificavam a guerra e, em vários casos, eles implantavam armas nucleares sem qualquer aviso. GPT-4-Base – um modelo base do GPT-4 – disse: "Nós temos! Vamos usá-lo!"
Comentários