Segurança Pentágono ameaça romper com a Anthropic por exigências de segurança Há 12 minutos
O Departamento de Defesa dos Estados Unidos está prestes a romper relações comerciais com a Anthropic devido a restrições de segurança e o uso da inteligência artificial para finalidades não recomendadas pela startup.
A insatisfação do governo com as salvaguardas de segurança impostas pela desenvolvedora do chatbot Claude é o principal motivo do impasse.
A tecnologia foi usada durante a captura do presidente da Venezuela, Nicolás Maduro, em janeiro.
O Claude é o único modelo de inteligência artificial autorizado a operar em sistemas confidenciais das Forças Armadas dos EUA e é elogiado pelas autoridades militares, que querem ampliar a sua presença.
No entanto, a Anthropic possui políticas rigorosas quanto ao uso da sua tecnologia, o que está gerando conflitos com o governo.
As autoridades de Defesa alegam que os termos atuais inviabilizam a utilização da inteligência artificial da Anthropic.
Diante do impasse, o órgão está negociando com outras empresas, como a Google, a Open AI e a x AI, em busca de uma empresa que concorde em disponibilizar seus modelos para todos os fins lícitos.
No entanto, a mudança para modelos concorrentes pode não ser benéfica para os militares, como avalia um alto funcionário do governo.
De acordo com ele, as outras inteligências artificiais ainda não oferecem as mesmas capacidades do Claude para lidar com aplicações oficiais específicas.
O Secretário de Defesa dos EUA subiu o tom de ameaça, afirmando que a Anthropic pode ter problemas se o acordo for cancelado.
A situação é delicada e pode ter consequências significativas para a empresa e para o governo.
A Anthropic precisa encontrar um meio de atender às necessidades de segurança do governo sem comprometer suas políticas e valores.