Newsletter

Anthropic, dona do Claude, abandona compromisso emblemático de segurança em IA

A empresa flexibilizou sua política de segurança e pode avançar no desenvolvimento de IA mesmo sem liderar sobre concorrentes

Publicidade

A Anthropic, que por anos se posicionou como uma alternativa mais cautelosa e segura em relação aos rivais de inteligência artificial, decidiu flexibilizar seu compromisso com mecanismos rígidos de proteção — em uma das mudanças estratégicas mais relevantes já vistas no setor.

O movimento ocorre em meio a uma guinada mais ampla de startups de IA, que deixaram o discurso centrado em “beneficiar a humanidade” para priorizar crescimento, receita e competitividade.

Em 2023, a empresa estabeleceu em sua Política de Escalonamento Responsável que poderia adiar o avanço de sistemas de IA considerados potencialmente perigosos. Agora, segundo postagem publicada na última terça-feira, a Anthropic atualizou as diretrizes e informou que não necessariamente fará esse adiamento caso avalie não ter vantagem significativa sobre concorrentes.

“O ambiente político passou a priorizar competitividade em IA e crescimento econômico, enquanto discussões focadas em segurança ainda não avançaram de forma relevante no âmbito federal”, afirmou a companhia.

Disputa acirrada

A decisão evidencia o choque entre princípios idealistas que marcaram o início da indústria de IA e as pressões atuais por escala e liderança de mercado. A Anthropic disputa espaço com gigantes como a OpenAI, o Google, controlado pela Alphabet, e a xAI, fundada por Elon Musk.

O CEO da Anthropic, Dario Amodei, trabalhou na OpenAI até 2020 e deixou a empresa por discordar da ênfase crescente em comercialização e velocidade, que, segundo ele, poderiam comprometer a segurança.

A própria OpenAI passou por transformação semelhante. Criada como organização sem fins lucrativos, converteu-se em estrutura tradicional com fins lucrativos no ano passado e, em 2024, revisou sua missão, retirando o termo “safely” (“com segurança”) da declaração sobre garantir que a inteligência artificial geral beneficie a humanidade.

Ambas as empresas avaliam abrir capital ainda este ano, em meio ao forte apetite de investidores por ativos ligados à IA. A Anthropic foi recentemente avaliada em cerca de US$ 380 bilhões, enquanto a OpenAI capta recursos a uma avaliação superior a US$ 850 bilhões.

Segundo uma porta-voz da Anthropic, a empresa sempre indicou que o ritmo acelerado da IA exigiria ajustes frequentes em suas políticas.

Pressão de Washington

A mudança ocorre em meio a um embate com o Departamento de Defesa dos Estados Unidos sobre as restrições impostas ao uso do modelo Claude por militares. O Pentágono chegou a ameaçar recorrer a uma lei da era da Guerra Fria para obrigar a empresa a liberar o acesso irrestrito à tecnologia caso não aceitasse os termos do governo.

Publicidade

Em reunião recente entre Amodei e o secretário de Defesa Pete Hegseth, autoridades americanas teriam apresentado possíveis medidas, incluindo classificar a Anthropic como risco à cadeia de suprimentos e invocar a Defense Production Act, uma lei que permite ao governo obrigar empresas a fornecer produtos ou tecnologias essenciais em situações de interesse nacional, para utilizar o software mesmo sem o consentimento da empresa.

No início do mês, o pesquisador sênior de segurança Mrinank Sharma anunciou sua saída da companhia. Em carta publicada na rede X, afirmou estar “constantemente confrontando” a situação atual e alertou que “o mundo está em perigo”, citando não apenas riscos associados à IA, mas também outras crises globais interligadas.

Setor em transformação

O debate sobre segurança não se restringe à Anthropic e à OpenAI. Reportagem da Bloomberg revelou que a SpaceX e sua subsidiária xAI participam de uma disputa confidencial do Pentágono para desenvolver tecnologia de enxames de drones autônomos controlados por voz — um movimento sensível para Musk, que no passado criticou o desenvolvimento de “novas ferramentas para matar pessoas”.

A OpenAI, por sua vez, apoia uma proposta da Applied Intuition na mesma competição, limitando sua contribuição ao sistema de “controle de missão”, responsável por converter comandos de voz de oficiais em campo em instruções digitais.

As tensões entre Amodei e o CEO da OpenAI, Sam Altman, também vieram a público recentemente. Durante uma cúpula de IA em Nova Déli, ambos dividiram o palco com o primeiro-ministro Narendra Modi — mas evitaram o gesto simbólico de dar as mãos, feito pelos demais participantes do evento.

Exit mobile version