A Scale AI anunciou na quarta-feira um acordo com o Departamento de Defesa para um programa de agente de IA emblemático, um movimento significativo no controverso uso militar de inteligência artificial.
A gigante da IA, que fornece dados de treinamento para os principais participantes da IA como OpenAI, Google , Microsoft e Meta , recebeu um contrato de protótipo do Departamento de Defesa para o “Thunderforge”, o “programa principal” do DOD para usar agentes de IA para planejamento e operações militares dos EUA, de acordo com os comunicados.
É um acordo multimilionário, de acordo com uma fonte familiarizada com a situação, que pediu anonimato devido à natureza confidencial do contrato.
Liderado pela Defense Innovation Unit, o programa incorporará uma equipe de “parceiros globais de tecnologia”, incluindo Anduril e Microsoft, para desenvolver e implantar agentes de IA. Os usos incluirão modelagem e simulação, suporte à tomada de decisões, cursos de ação propostos e até mesmo fluxos de trabalho automatizados. O lançamento do programa começará com o Comando Indo-Pacífico dos EUA e o Comando Europeu dos EUA e será então ampliado para outras áreas.
“O Thunderforge marca uma mudança decisiva em direção à guerra baseada em dados e alimentada por IA, garantindo que as forças dos EUA possam antecipar e responder a ameaças com rapidez e precisão”, de acordo com um comunicado da DIU, que também disse que o programa “acelerará a tomada de decisões” e liderará “jogos de guerra alimentados por IA”.
“Nossas soluções de IA transformarão o processo operacional militar atual e modernizarão a defesa americana. … A velocidade aprimorada da DIU fornecerá aos líderes militares da nossa nação a maior vantagem tecnológica”, disse o CEO Alexandr Wang em um comunicado.
Tanto a Scale quanto a DIU enfatizaram a velocidade e como a IA ajudará as unidades militares a tomar decisões muito mais rápidas. A DIU mencionou a necessidade de velocidade (ou sinônimos) oito vezes em seu comunicado.
Doug Beck, diretor da DIU, enfatizou a “velocidade da máquina” em uma declaração, enquanto Bryce Goodman, líder do programa Thunderforge da DIU e contratado, disse que atualmente há uma “incompatibilidade fundamental entre a velocidade da guerra moderna e nossa capacidade de resposta”.
Embora Scale mencione que o programa operará sob supervisão humana, a DIU não destacou esse ponto.
Parcerias IA-militares
O anúncio da Scale faz parte de uma tendência mais ampla de empresas de IA não apenas recuando nas proibições de uso militar de seus produtos, mas também firmando parcerias com gigantes da indústria de defesa e o Departamento de Defesa.
Em novembro, a Anthropic, a startup de IA apoiada pela Amazon fundada por ex-executivos de pesquisa da OpenAI, e a contratada de defesa Palantir anunciaram uma parceria com a Amazon Web Services para “fornecer às agências de inteligência e defesa dos EUA acesso à família de modelos Claude 3 e 3.5 [da Anthropic] na AWS”. Neste outono, a Palantir assinou um novo contrato de cinco anos, de até US$ 100 milhões, para expandir o acesso militar dos EUA ao seu programa de guerra de IA Maven.
Em dezembro, a OpenAI e a Anduril anunciaram uma parceria permitindo que a empresa de tecnologia de defesa implementasse sistemas avançados de IA para “missões de segurança nacional”.
A parceria OpenAI-Anduril se concentra em “melhorar os sistemas de aeronaves não tripuladas (CUAS) do país e sua capacidade de detectar, avaliar e responder a ameaças aéreas potencialmente letais em tempo real”, de acordo com um comunicado na época, que acrescentou que o acordo ajudará a reduzir o fardo sobre operadores humanos.
A Anduril, cofundada por Palmer Luckey, não respondeu a uma pergunta da CNBC na época sobre se a redução do ônus sobre operadores humanos se traduziria em menos humanos envolvidos em decisões de guerra de alto risco.
Na época, a OpenAI disse à CNBC que mantém a política em sua declaração de missão de proibir o uso de seus sistemas de IA para prejudicar outras pessoas.
Mas isso é mais fácil dizer do que fazer, de acordo com alguns profissionais da indústria.
“O problema é que você não tem controle sobre como a tecnologia é realmente usada — se não no uso atual, então certamente no longo prazo, uma vez que você já compartilhou a tecnologia”, disse Margaret Mitchell, pesquisadora e cientista-chefe de ética da Hugging Face, à CNBC em uma entrevista. “Então, estou um pouco curiosa sobre como as empresas estão realmente percebendo isso – elas têm pessoas com autorização de segurança que estão literalmente examinando o uso e verificando se está dentro das restrições de nenhum dano direto?”
A Hugging Face, uma startup de IA e concorrente da OpenAI, já recusou contratos militares antes, incluindo contratos que não incluíam o potencial de dano direto, de acordo com Mitchell. Ela disse que a equipe “entendeu como estava a um passo do dano direto”, acrescentando que “mesmo coisas que são aparentemente inócuas, está muito claro que esta é uma parte de um pipeline de vigilância”.
Mitchell disse que até mesmo resumir postagens de mídia social pode ser visto como um passo de ser diretamente prejudicial, já que esses resumos podem ser usados para potencialmente identificar e eliminar combatentes inimigos.
“Se estiver a um passo de causar dano e ajudar a propagar o dano, isso é realmente melhor?” Mitchell disse. “Eu sinto que é uma linha um tanto arbitrária na areia, e isso funciona bem para as relações públicas da empresa e talvez para o moral dos funcionários sem realmente ser uma situação ética melhor… Você pode dizer ao Departamento de Defesa, ‘Nós lhe daremos essa tecnologia, por favor, não use isso para prejudicar as pessoas de forma alguma’, e eles podem dizer, ‘Nós também temos valores éticos e, portanto, nos alinharemos com nossos valores éticos’, mas eles não podem garantir que isso não seja usado para causar dano, e você, como empresa, não tem visibilidade de que isso está sendo usado para causar dano.”
Mitchell chamou isso de “um jogo de palavras que fornece algum tipo de verniz de aceitabilidade… ou não violência.”
A mudança militar da tecnologia
Em fevereiro, o Google removeu uma promessa de se abster de usar IA para aplicações potencialmente prejudiciais, como armas e vigilância, de acordo com os “Princípios de IA” atualizados da empresa. Foi uma mudança em relação à versão anterior, na qual o Google disse que não buscaria “armas ou outras tecnologias cujo principal propósito ou implementação seja causar ou facilitar diretamente ferimentos a pessoas” e “tecnologias que coletam ou usam informações para vigilância violando normas internacionalmente aceitas”.
Em janeiro de 2024, a OpenAI apoiada pela Microsoft removeu silenciosamente uma proibição do uso militar do ChatGPT e suas outras ferramentas de IA, assim como começou a trabalhar com o Departamento de Defesa dos EUA em ferramentas de IA, incluindo ferramentas de segurança cibernética de código aberto.
Até então, a página de políticas da OpenAI especificava que a empresa não permitia o uso de seus modelos para “atividades com alto risco de danos físicos”, como desenvolvimento de armas ou militar e guerra. Mas na linguagem atualizada, a OpenAI removeu a referência específica aos militares, embora sua política ainda afirme que os usuários não devem “usar nosso serviço para prejudicar a si mesmos ou a outros”, incluindo “desenvolver ou usar armas”.
As notícias sobre as parcerias militares e mudanças na declaração de missão seguem anos de controvérsia sobre empresas de tecnologia desenvolvendo tecnologia para uso militar, destacadas pelas preocupações públicas dos trabalhadores de tecnologia — especialmente aqueles que trabalham com IA.
Funcionários de praticamente todas as gigantes da tecnologia envolvidas com contratos militares expressaram preocupações depois que milhares de funcionários do Google protestaram contra o envolvimento da empresa com o Projeto Maven do Pentágono, que usaria a IA do Google para analisar imagens de vigilância de drones.
A Palantir mais tarde assumiria o contrato.
Funcionários da Microsoft protestaram contra um contrato militar de US$ 480 milhões que forneceria aos soldados fones de ouvido de realidade aumentada, e mais de 1.500 funcionários da Amazon e do Google assinaram uma carta protestando contra um contrato conjunto de US$ 1,2 bilhão e vários anos com o governo israelense e os militares, sob o qual as gigantes da tecnologia forneceriam serviços de computação em nuvem, ferramentas de IA e data centers.
“Sempre há oscilações de pêndulo com esse tipo de coisa”, disse Mitchell. “Estamos em uma oscilação agora em que os funcionários têm menos voz nas empresas de tecnologia do que tinham há alguns anos, e então é como um mercado de compradores e vendedores… Os interesses da empresa agora são muito mais pesados do que os interesses dos funcionários individuais.”