Homem desenvolve doença do século XX após seguir conselho do ChatGPT

Os chatbots baseados em Inteligência Artificial (IA) têm conquistado os utilizadores e, por serem acessíveis às massas, as empresas lançam avisos constantes sobre as suas fraquezas, nomeadamente a probabilidade de errarem. Este homem, ainda assim, depositou demasiada confiança no ChatGPT!



Após ler artigos sobre o impacto negativo que quantidades excessivas de cloreto de sódio (o conhecido sal de mesa comum) podem ter no corpo, um homem, de 60 anos, decidiu eliminá-lo da sua dieta.

Apesar de haver artigos sobre a redução do consumo, ele queria removê-lo completamente e, para isso, pediu ajuda ao ChatGPT, dando origem a uma história que reforça que os utilizadores não devem seguir cegamente o que os chatbots dizem, em especial quando se trata de conselhos relacionados com a saúde.

ChatGPT terá dado alternativa para limpeza, não para inserir na dieta

Depois de três meses a seguir a dieta “prescrita” pelo ChatGPT, o homem deu entrada no hospital com sintomas como acne facial e angiomas de início recente, fadiga, insónia, sede excessiva, coordenação deficiente e erupção cutânea.

Além disso, alegando que o seu vizinho estava a envenená-lo, expressou paranoia crescente, e alucinações auditivas e visuais. Após tentar fugir, estas “resultaram numa internação psiquiátrica involuntária por incapacidade grave”.

Conforme relatado, quando o homem perguntou ao ChatGPT sobre substâncias que poderiam substituir o sal, o chatbot mencionou o brometo de sódio.

Durante três meses, ele substituiu o cloreto de sódio por brometo de sódio obtido na Internet após perguntar ao ChatGPT, que lhe disse que o cloreto pode ser trocado por brometo, embora provavelmente para outros fins, como limpeza.

Lê-se no caso clínico.

Brometo de sódio

A equipa médica acredita que o homem tenha usado um modelo mais antigo do ChatGPT, 3.5 ou 4.0, nas suas conversas. Contudo, uma vez que os autores do artigo não conseguiram aceder ao histórico, tentaram recriar as respostas com o ChatGPT 3.5.

Conforme documentado, “embora a resposta afirmasse que o contexto é importante, não forneceu um aviso específico sobre saúde, nem perguntou por que motivo queríamos saber, como presumimos que um profissional de saúde faria”.

Doença comum no século XX

Entretanto, a equipa percebeu que o homem tinha desenvolvido bromismo, após consultar o ChatGPT e seguir os seus conselhos.

Também conhecido como envenenamento crónico por brometo, a condição tende, hoje em dia, a ser observada apenas devido à exposição industrial ou ao uso indevido de certos compostos que contêm brometo.

No início do século XX, contudo, o brometo era amplamente utilizado em sedativos, medicamentos para dormir e até mesmo em analgésicos vendidos sem receita médica.

O bromismo era, por vezes, mal interpretado como alcoolismo ou esgotamento nervoso, até que os médicos perceberam que os pacientes não bebiam, mas tomavam diariamente “tónicos para os nervos” à base de brometo – por ser expelido muito lentamente, o uso repetido de brometo pode levar à acumulação tóxica. Os casos graves resultavam em psicose, tremores e convulsões.

Agora, apesar de a condição não ser comum, as substâncias que contêm brometo tornaram-se mais facilmente disponíveis na Internet, pelo que importa descrever os sintomas e riscos associados, segundo a equipa médica.

Após ser submetido ao tratamento adequado, durante um internamento de três semanas, o homem estabilizou e serve, agora, de exemplo.