Tecnologia

EUA buscam regras para uso irrestrito de IAs

4 min leitura

O governo americano elabora novas diretrizes para garantir ampla autonomia no uso de modelos de inteligência artificial em contratos civis.

As regras para uso irrestrito de IAs estão sendo preparadas pelos Estados Unidos, que visam exigir de empresas do setor a permissão para que o governo utilize seus modelos de inteligência artificial em “qualquer finalidade legal”. Essa iniciativa surge após um embate significativo entre o Pentágono e a empresa Anthropic, gerando a necessidade de redefinir os termos de colaboração tecnológica no setor público e militar. A proposta reflete uma busca por maior controle e adaptabilidade das ferramentas de IA nas operações governamentais.

Novas diretrizes para contratos civis

Uma versão preliminar das novas diretrizes, divulgada pelo Financial Times, aponta para uma mudança substancial na forma como as empresas de tecnologia deverão interagir com o governo americano. Desenvolvedoras que desejarem fornecer sistemas de inteligência artificial para a administração pública serão obrigadas a conceder uma **licença irrevogável**.

Esta licença permitirá ao governo utilizar as tecnologias de IA em todas as aplicações consideradas legais, sem restrições posteriores de uso. O objetivo é remover barreiras que atualmente limitam a aplicação plena dessas ferramentas em diversas esferas da governança e da segurança nacional.

As orientações foram elaboradas pela Administração de Serviços Gerais (GSA), o principal órgão responsável por coordenar as compras e os contratos para a administração pública federal. Embora o foco inicial seja em contratos civis, o modelo estabelecido pela GSA pode servir de precedente e influenciar diretamente diretrizes semelhantes para acordos relacionados ao setor militar, ampliando a abrangência da nova política.

A origem do impasse: Pentágono e Anthropic

O debate sobre o uso irrestrito de IAs e as novas regras ganhou força após um desentendimento entre o Departamento de Defesa dos EUA (Pentágono) e a Anthropic, uma das líderes no desenvolvimento de inteligência artificial. Recentemente, o Pentágono classificou a empresa como um **“risco para a cadeia de suprimentos”**, uma medida de grande impacto no ambiente de contratação governamental.

Essa classificação foi o resultado de um desacordo substancial. Autoridades americanas afirmaram que a Anthropic insistiu em adotar **medidas de segurança excessivamente restritivas** para seus modelos de IA, o que teria dificultado a integração e o uso da tecnologia em aplicações governamentais críticas. A inflexibilidade da empresa gerou um impasse operacional.

Por outro lado, a Anthropic expressou sérias preocupações. A empresa temia que seu chatbot, Claude, pudesse ser empregado em aplicações como vigilância em massa de cidadãos americanos ou no desenvolvimento de armas autônomas. A recusa em flexibilizar suas políticas de uso para se alinhar às exigências do Pentágono levou à quebra da parceria.

Em um movimento paralelo e consequente, a GSA também decidiu encerrar o contrato da Anthropic no programa **OneGov**. Este programa é fundamental, pois disponibiliza ferramentas de software e soluções tecnológicas para diversos órgãos dos poderes Executivo, Legislativo e Judiciário por meio de acordos pré-negociados, evidenciando o impacto abrangente do desacordo.

O que se sabe até agora

Os Estados Unidos estão finalizando novas diretrizes para a contratação de inteligência artificial, com foco na concessão de licenças irrestritas de uso ao governo. Essas regras surgem após um atrito entre o Departamento de Defesa e a Anthropic, que se recusou a permitir o uso de seus modelos em aplicações consideradas sensíveis pela empresa. A GSA lidera a elaboração, visando padronizar e ampliar o acesso governamental à IA.

Quem está envolvido na questão

Os principais atores são o governo dos EUA, representado pela GSA e pelo Pentágono, e empresas desenvolvedoras de inteligência artificial, com a Anthropic servindo como exemplo central do conflito. Outras gigantes da tecnologia que fornecem ou pretendem fornecer soluções de IA ao setor público também serão afetadas pelas novas regras, que buscam harmonizar os interesses de segurança nacional com o avanço tecnológico.

Próximos passos da regulamentação

A implementação dessas regras deve consolidar uma nova era na relação entre o governo americano e as empresas de IA. Espera-se que essas diretrizes acelerem a adoção de IA no setor público, embora possam gerar debates contínuos sobre privacidade, ética e controle de tecnologia. O modelo de contratos civis pode se estender ao setor militar, e a Casa Branca ainda não se manifestou publicamente sobre a versão final.

Exigências adicionais para fornecedores de IA

Além da questão da licença irrevogável e do uso irrestrito de IAs, o rascunho das diretrizes estabelece outras regras importantes sobre o comportamento e a transparência dos sistemas de inteligência artificial fornecidos ao governo. Uma das exigências cruciais é que os contratados não incluam deliberadamente **vieses partidários ou ideológicos** nas respostas geradas pelos modelos.

Essa medida visa garantir a neutralidade e a objetividade das informações e análises fornecidas pelas IAs, especialmente em contextos governamentais onde a imparcialidade é fundamental. A preocupação com a integridade dos dados e a ausência de manipulação algorítmica é crescente em todo o mundo, e os EUA buscam abordar isso de forma proativa.

Outro ponto importante é a obrigatoriedade de as empresas informarem se seus sistemas foram adaptados ou configurados especificamente para atender a regulamentações ou exigências de conformidade fora do âmbito do governo federal dos EUA. Isso busca trazer transparência sobre as personalizações e os diferentes padrões de segurança ou ética que podem ser aplicados a um mesmo modelo de IA em diferentes jurisdições.

As novas regras são parte de uma iniciativa mais ampla da administração para expandir o uso da inteligência artificial no setor público, enquanto simultaneamente estabelece padrões claros para a **segurança, neutralidade e disponibilidade** dessas tecnologias. A ausência de um posicionamento público da Casa Branca até o momento indica que o processo de formulação e aprovação ainda pode estar em curso.

Reconfigurando a colaboração tecnológica governamental

A busca dos Estados Unidos por um uso irrestrito de IAs em contratos governamentais marca uma guinada significativa na relação entre o setor público e as empresas de tecnologia. O impasse com a Anthropic não apenas expôs os desafios éticos e de segurança intrínsecos à inteligência artificial, mas também acelerou a necessidade de um arcabouço regulatório robusto. As futuras diretrizes prometem redefinir o panorama da inovação e da segurança nacional, garantindo que o governo tenha a autonomia necessária para aplicar as mais avançadas ferramentas de IA em benefício de suas operações, equilibrando essa capacidade com exigências de neutralidade e transparência.

Contrate um dos serviços da krsites.com.br
Posts relacionados
Tecnologia

Artemis 2 revela Brasil em sua primeira imagem da Terra

5 min leitura
A missão Artemis 2 da NASA capturou uma vista inédita da Terra, onde o Brasil, apesar de discreto, marcou presença. A Brasil…
Tecnologia

Material aeroespacial chinês eleva resistência em 26%

5 min leitura
Pesquisadores do Instituto de Mecânica da Academia Chinesa de Ciências anunciaram, em 9 de março, um avanço que promete redefinir a engenharia…
Tecnologia

Missão Artemis 2: falha controlada e rota inalterada para a Lua

6 min leitura
A missão Artemis 2, a aguardada jornada da NASA e da Agência Espacial Canadense (CSA) rumo à Lua, completou recentemente seu terceiro…
Assine a newsletters do CBL

Adicione seu e-mail e receba na sua caixa postar Breaking news, dicas e demais conteúdos direto da nossa redação.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *