Uma falha de segurança expôs centenas de milhares de conversas privadas com o Grok, o chatbot de IA da xAI, tornando-as acessíveis a partir do Google. Esta vulnerabilidade permitiu que interações, por mais íntimas que fossem, ficassem disponíveis a qualquer pessoa online.
A origem da falha de privacidade do Grok
A recente descoberta, noticiada pela Forbes, revelou que mais de 370.000 conversas com o Grok foram indexadas pelos motores de pesquisa.
O problema teve origem na função de partilha do chatbot. Ao utilizar este botão, era gerado um URL único para a conversa, mas o X não incluía as necessárias tags “noindex”, que instruem os motores de pesquisa, como o Google, a ignorar e não catalogar essas páginas. Consequentemente, o que deveria ser uma partilha controlada tornou-se um arquivo público.
O conteúdo exposto é alarmante. Entre as conversas tornadas públicas encontram-se dados sensíveis como palavras-passe, desabafos sobre problemas de saúde, detalhes de relações pessoais e até questões perturbadoras sobre a produção de drogas ou o planeamento de atividades criminosas.
Embora as transcrições sejam tecnicamente anonimizadas, a presença de identificadores pessoais nas conversas pode permitir a ligação entre o conteúdo e o utilizador, associando o seu nome a temas que preferiria manter privados.
Proteja-se destas exposições…
Face a esta vulnerabilidade, como pode proteger-se? A primeira e mais importante medida é deixar de utilizar a função de partilha, a menos que esteja totalmente confortável com a possibilidade de a conversa se tornar pública.
Se já partilhou um chat e se arrepende, pode tentar localizar o link e solicitar a sua remoção junto da Google. No entanto, este é um processo moroso e sem garantia de remoção imediata.
Para quem interage com o Grok através do X, é também aconselhável rever e ajustar as definições de privacidade da conta. Desativar a permissão para que as suas publicações sejam usadas no treino do modelo de IA pode oferecer uma camada adicional de proteção, embora a sua eficácia neste contexto específico não seja garantida.
Este já é um problema recorrente na indústria da IA
Este incidente não é um caso isolado. Pelo contrário, é o mais recente exemplo de como as plataformas de chatbots de IA têm comprometido a privacidade dos utilizadores. A OpenAI viu-se recentemente forçada a reverter uma “experiência” em que conversas partilhadas do ChatGPT começaram a aparecer nos resultados do Google.
A Meta também enfrentou críticas quando se descobriu que as discussões com o seu Meta AI poderiam surgir no feed de descoberta da aplicação.
As conversas com estes sistemas assemelham-se mais a um diário pessoal do que a uma publicação numa rede social. Quando o comportamento padrão de uma aplicação transforma essa confidencialidade em conteúdo pesquisável, a reação dos utilizadores é, e deve ser, negativa.
A estratégia parece ser sempre a mesma: pedir desculpa após a violação de privacidade, tal como já vimos em casos passados com os anúncios do Gmail que analisavam e-mails ou as aplicações do Facebook que recolhiam dados dos contactos.
O cenário mais otimista é que a X e outras empresas corrijam rapidamente esta falha. Contudo, os utilizadores de chatbots de IA devem assumir, por precaução, que qualquer conteúdo partilhado poderá, eventualmente, ser lido por terceiros.
Leia também: