As autoridades de segurança nacional dos EUA estão preocupadas com o potencial da nova tecnologia para reverter a guerra, conflitos cibernéticos e, em casos extremos, o uso de armas nucleares. O presidente Joe Biden anunciou fortes restrições em outubro à venda dos chips de computador mais avançados para a China, não apenas para dar à indústria americana uma chance de restaurar sua competitividade, mas também como uma estratégia de controle de armas.
A teoria é que se os militares chineses não conseguirem os chips, isso poderá desacelerar seus esforços para desenvolver armas impulsionadas por inteligência artificial. Contudo, a restrição pode ser uma correção temporária, devido ao potencial de softwares de IA generativos, como o popular ChatGPT, para derrubar a guerra, conflitos cibernéticos e até mesmo a tomada de decisões sobre o emprego de armas nucleares.
A comunidade de defesa está tensa, pois ninguém sabe exatamente do que essas novas tecnologias são capazes em termos de desenvolvimento e controle de armas e que tipo de regime de controle de armas, se houver, poderá funcionar.
O diretor de informações do Pentágono, John Sherman, disse que a ideia de uma pausa de seis meses no desenvolvimento das próximas gerações do ChatGPT e software semelhante é uma má ideia, pois os adversários em potencial não vão parar.
O ChatGPT pode capacitar pessoas mal-intencionadas que anteriormente não teriam acesso fácil a tecnologia destrutiva e acelerar confrontos entre superpotências, deixando pouco tempo para diplomacia e negociação.
As autoridades alertam que os robôs assassinos de Hollywood estão se tornando ferramentas militares, aumentando a preocupação com a falta de um regime eficaz de controle de armas e segurança para IA. Escreve o jornal The New York Times, edição desta sexta-feira (05/05).
Eric Schmidt, ex-presidente do Google e presidente do Defense Innovation Board, afirmou que “há uma série de conversas informais ocorrendo agora na indústria – todas informais – sobre como seriam as regras de segurança de uma IA”. No entanto, até agora, nenhuma solução eficaz foi apresentada para essa ameaça crescente.
LEIA TAMBÉM
- SECOM recebe sugestão para deflagrar debate sobre regulação focada na proteção do consumidor e apoio à concorrência
- Reino Unido inicia regulação da inteligência artificial com foco na proteção do consumidor e no apoio à concorrência
- União Europeia vai apresentar lei para abrir algoritmos e fiscalizar gigantes da internet
- China sai na frente ao definir novas regras para algoritmos de internet
O povo está mexendo com algo que ainda não conseguimos ter um controle absoluto. O “pai” que criou o IA, na semana passada, demonstrou preocupação com o uso dela. Por um simples motivo. Ela “pensa” da mesma forma que um humano, na teoria, e sendo assim, se a IA se sentir ameaçada como um humano ela irá atacar para se defender. Parece coisa de Extreminador do Futura, mas, pode acontecer. Porque sempre a ficção um dia vira realidade. E nesta balada que hoje estamos diante da IA, porque não poderá vir à acontecer. Até porque o ser humano para fazer o bem, pensa muito e muito demorado também, mas para causar o mal é bem rapidinho. A história mostra isso.