O senador Edward Markey (D-MA) e os representantes Ted Lieu (D-CA), Don Beyer (D-VA) e Ken Buck (R-CO) introduziram o ‘Block Nuclear Launch by Autonomous AI Act’ nos EUA, relata The Verge. O projeto de lei “proibiria o uso de fundos federais para lançar uma arma nuclear usando um sistema de armas autônomo que não esteja sujeito a controle humano significativo”.
“Em todos os casos, os EUA manterão um humano informado sobre todas as ações críticas para informar e executar as decisões do presidente para iniciar e encerrar o emprego de armas nucleares”, dizia o projeto de lei.
Os senadores acham que é do entendimento do Congresso que o uso de sistemas de armas nucleares autônomos e letais que não estão sujeitos a controle humano significativo não pode aderir adequadamente ao direito humanitário internacional e “qualquer decisão de lançar uma arma nuclear não deve ser tomada por IA” .
Proibição de lançamentos de armas nucleares autônomas
Um relatório anterior da ‘Comissão de Segurança Nacional sobre Inteligência Artificial’ recomendou a afirmação da proibição de lançamentos de armas nucleares autônomas, “não apenas para evitar que isso aconteça dentro do governo dos EUA, mas para estimular compromissos semelhantes da China e da Rússia”, mencionou o relatório.
Uma guerra nuclear em grande escala levaria à morte de milhões de pessoas, tempestades de fogo, contaminação radioativa, fracasso agrícola e resultados climáticos catastróficos.
“A conformidade com o direito humanitário internacional, o controle humano e o julgamento legal humano são essenciais no processo de comando e controle nuclear”, enfatizou o projeto de lei.
A Revisão da Postura Nuclear de 2022 afirma que “em todos os casos, os EUA manterão um humano no circuito” para todas as ações críticas para informar e executar as decisões do presidente para iniciar e encerrar o emprego de armas nucleares”.