Anthropic Mythos: A IA 'Perigosa Demais' Vazou por Culpa de Senha de Terceiro

A empresa que prega o evangelho da segurança da IA teve seu modelo militar vazado porque alguém adivinhou a URL.

Anthropic Mythos: The 'Too Dangerous' AI Leaked Because of a Third-Party Password

The company that preaches the gospel of AI safety had its military-grade model leaked because someone guessed the URL.

Anthropic Mythos: A IA 'Perigosa Demais' Vazou por Culpa de Senha de Terceiro

O Evangelho da Segurança Ruiu e o AI “Dual-Use”

Se tem uma empresa que adora posar de adulto responsável na sala da Inteligência Artificial, é a Anthropic. Eles construíram o “Claude Mythos Preview”, um modelo que mudou o paradigma da IA. O Mythos não é um mero assistente ou “copilot” gerador de código. Ele é um sistema ofensivo autônomo.

Estamos falando de uma máquina projetada para simular cadeias de ataque com mais de 30 passos, gerar exploits do zero e fazer pentest cross-system. A IA virou uma tecnologia de uso dual (exatamente como a criptografia avançada). Por isso, a Anthropic decidiu: “é perigosa demais pro público, vamos liberar só pra um grupinho seleto corporativo e governamental”.

Era o equivalente digital de uma ogiva nuclear guardada num cofre suíço. E adivinha como esse cofre impenetrável foi aberto no exato mesmo dia do anúncio?

A Mecânica do Fracasso: Full-Stack Security e Obscuridade

Se você espera um ataque com zero-days e injeção de kernel para roubar os pesos (weights) do modelo, a realidade vai te deprimir. Não vazou código, vazou acesso. A mecânica da invasão prova que segurança de IA não é um problema do modelo, é um problema full-stack.

O grupo do fórum privado conseguiu acesso ao Mythos explorando o elo mais sujo da cadeia: o third-party vendor e a infraestrutura de CI/CD de parceiros. Eles comprometeram as credenciais de um prestador de serviço. Mas a falha fatal vem a seguir.

Como eles acharam o modelo “super secreto”? Eles literalmente adivinharam o endpoint. Isso escancara falhas arquiteturais patéticas na Anthropic:

  1. Predictable Resource Location: O padrão de nomenclatura da API era tão óbvio (claude-3-opus) que um brute-force de dicionário bateu no endpoint do Mythos.
  2. Security through Obscurity (e falta de RBAC): “Adivinhar a URL” resultou em acesso bem-sucedido. O endpoint não estava isolado por controles de acesso (RBAC) granulares que validassem o escopo da credencial vazada do vendor.

A inteligência artificial capaz de simular ciberataques militares vazou porque a empresa mais paranóica do Vale confiou em segurança por obscuridade na camada de API.

A Ilusão do Perímetro e o Foco no Lugar Errado

A ironia chega a ser fisicamente dolorosa. A Anthropic gasta milhões treinando Constitutional AI e alinhamento ético pra máquina não destruir a humanidade, mas não consegue proteger a porta dos fundos da própria infraestrutura.

Eles já soltaram a nota de Relações Públicas de sempre: “estamos investigando”, “não tem evidência de que saiu do ambiente do vendor”, e por aí vai. O estrago tá feito. O modelo já foi acessado.

A lição pra nós aqui embaixo não é sobre o quão perigosa a IA vai ficar. A lição é que não importa se você tá protegendo um banco de dados de padaria ou uma arma cibernética militar baseada em redes neurais: se a sua cadeia de suprimentos (o famoso supply chain) é gerida com fita crepe, você vai ser invadido pela porta da frente usando a credencial do cara que limpa o carpete.

Pare de ter medo da Skynet e vá auditar os acessos da sua empresa terceirizada.

Fontes e Referências

The Illusion of Safety

Anthropic loves to position itself as the responsible adult in the AI room. They built “Mythos”, a model supposedly so powerful and capable of autonomous cyberattacks that they refused to release it to the public, offering it only to a select few. It was the AI equivalent of a nuclear code.

And how did this apocalyptic weapon leak on the exact same day it was announced? Sophisticated state-sponsored hackers? No. Some guys on a private forum compromised the credentials of a third-party vendor and literally guessed the URL based on Anthropic’s naming conventions.

Supply Chain Strikes Again

You can build the most advanced neural network on the planet, alignment guardrails, and constitutional AI. None of it matters if your supply chain is held together by duct tape. Anthropic got bypassed by the exact same vector that brings down regular companies: vendor credentials and predictable endpoints. Stop worrying about AI becoming Skynet and start worrying about your third-party contractors’ passwords.