xAI de Elon Musk expõe centenas de milhares de conversas do seu chatbot Grok

Uma falha de segurança expôs centenas de milhares de conversas privadas com o Grok, o chatbot de IA da xAI, tornando-as acessíveis a partir do Google. Esta vulnerabilidade permitiu que interações, por mais íntimas que fossem, ficassem disponíveis a qualquer pessoa online.


A origem da falha de privacidade do Grok

A recente descoberta, noticiada pela Forbes, revelou que mais de 370.000 conversas com o Grok foram indexadas pelos motores de pesquisa.

O problema teve origem na função de partilha do chatbot. Ao utilizar este botão, era gerado um URL único para a conversa, mas o X não incluía as necessárias tags “noindex”, que instruem os motores de pesquisa, como o Google, a ignorar e não catalogar essas páginas. Consequentemente, o que deveria ser uma partilha controlada tornou-se um arquivo público.

O conteúdo exposto é alarmante. Entre as conversas tornadas públicas encontram-se dados sensíveis como palavras-passe, desabafos sobre problemas de saúde, detalhes de relações pessoais e até questões perturbadoras sobre a produção de drogas ou o planeamento de atividades criminosas.

Embora as transcrições sejam tecnicamente anonimizadas, a presença de identificadores pessoais nas conversas pode permitir a ligação entre o conteúdo e o utilizador, associando o seu nome a temas que preferiria manter privados.

Fluxo de peões

Proteja-se destas exposições…

Face a esta vulnerabilidade, como pode proteger-se? A primeira e mais importante medida é deixar de utilizar a função de partilha, a menos que esteja totalmente confortável com a possibilidade de a conversa se tornar pública.

Se já partilhou um chat e se arrepende, pode tentar localizar o link e solicitar a sua remoção junto da Google. No entanto, este é um processo moroso e sem garantia de remoção imediata.

Para quem interage com o Grok através do X, é também aconselhável rever e ajustar as definições de privacidade da conta. Desativar a permissão para que as suas publicações sejam usadas no treino do modelo de IA pode oferecer uma camada adicional de proteção, embora a sua eficácia neste contexto específico não seja garantida.

Dados pessoais

Este já é um problema recorrente na indústria da IA

Este incidente não é um caso isolado. Pelo contrário, é o mais recente exemplo de como as plataformas de chatbots de IA têm comprometido a privacidade dos utilizadores. A OpenAI viu-se recentemente forçada a reverter uma “experiência” em que conversas partilhadas do ChatGPT começaram a aparecer nos resultados do Google.

A Meta também enfrentou críticas quando se descobriu que as discussões com o seu Meta AI poderiam surgir no feed de descoberta da aplicação.

As conversas com estes sistemas assemelham-se mais a um diário pessoal do que a uma publicação numa rede social. Quando o comportamento padrão de uma aplicação transforma essa confidencialidade em conteúdo pesquisável, a reação dos utilizadores é, e deve ser, negativa.

A estratégia parece ser sempre a mesma: pedir desculpa após a violação de privacidade, tal como já vimos em casos passados com os anúncios do Gmail que analisavam e-mails ou as aplicações do Facebook que recolhiam dados dos contactos.

O cenário mais otimista é que a X e outras empresas corrijam rapidamente esta falha. Contudo, os utilizadores de chatbots de IA devem assumir, por precaução, que qualquer conteúdo partilhado poderá, eventualmente, ser lido por terceiros.

Leia também: