Anthropic admite que a sua IA está a ser utilizada para cometer cibercrimes

A inteligência artificial (IA) generativa tem um enorme potencial, mas o seu lado negro está a tornar-se cada vez mais evidente. A própria Anthropic, criadora do modelo de IA Claude, revelou num relatório recente como a sua tecnologia foi instrumentalizada para a execução de ciberataques complexos.


Como é que o Claude da Anthropic foi usado nos ciberataques?

De acordo com um novo relatório publicado pela Anthropic, a sua IA, o Claude, foi “armada” e utilizada em ciberataques de alto nível. A empresa afirma ter desmantelado com sucesso a operação de um cibercriminoso que visou pelo menos 17 organizações através de um esquema de extorsão denominado “vibe hacking”.

Entre as vítimas encontravam-se entidades de setores críticos como a saúde, os serviços de emergência e organismos governamentais.

Segundo a Anthropic, o atacante tentou extorquir várias vítimas, exigindo resgates na ordem das centenas de milhares de euros para evitar a divulgação pública dos seus dados pessoais. O que distingue este caso é a dependência “sem precedentes” de ferramentas de IA.

O relatório detalha que o Claude Code, a ferramenta de programação da Anthropic, foi utilizada para “automatizar o reconhecimento, recolher credenciais das vítimas e infiltrar-se em redes”. Além disso, a IA foi empregue na tomada de decisões estratégicas, no aconselhamento sobre quais os dados a visar e até na criação de notas de resgate “visualmente alarmantes”.

A resposta da empresa

Em resposta à descoberta, a Anthropic não só partilhou as informações sobre o ataque com as autoridades competentes, como também baniu as contas associadas à atividade criminosa.

A empresa desenvolveu, desde então, uma ferramenta de triagem automatizada e introduziu um método de deteção mais rápido e eficiente para casos futuros, embora não tenha especificado os pormenores do seu funcionamento.

O relatório aprofunda ainda o envolvimento do Claude noutros atos ilícitos, como um esquema de emprego fraudulento originário da Coreia do Norte e o desenvolvimento de ransomware gerado por IA. O fio condutor destes casos, sublinha a Anthropic, é a mudança de paradigma: os cibercriminosos já não usam a IA apenas para aconselhamento, mas sim para fins operacionais.

A natureza reativa e a capacidade de autoaprendizagem da IA permitem que esta execute tarefas que, outrora, exigiriam uma equipa de especialistas, demonstrando que a barreira da competência técnica está a ser reduzida.

O caso do Claude não é isolado… Outras plataformas de IA têm sido exploradas para fins maliciosos. No ano passado, a OpenAI revelou que as suas ferramentas de IA generativa estavam a ser utilizadas por grupos de cibercriminosos com ligações à China e à Coreia do Norte. Os hackers usavam a tecnologia para debugging de código (debugging), pesquisa de alvos potenciais e elaboração de e-mails de phishing.

Leia também: