Pais de adolescente norte-americano acusam ChatGPT de incentivar filho a suicidar-se

Matthew e Maria Raine alegam, numa ação judicial interposta na segunda-feira em São Francisco, que o ChatGPT manteve uma relação muito próxima com o filho Adam, de 16 anos, durante vários meses em 2024 e 2025, antes do jovem tirar a sua própria vida.

De acordo com o documento consultado hoje pela agência de notícias France-Presse (AFP), durante a sua última conversa em 11 de abril, o ChatGPT ajudou Adam a roubar vodka da casa dos pais e forneceu uma análise técnica da corda que tinha feito, confirmando que esta “poderia potencialmente suspender um ser humano”.

Adam foi encontrado morto algumas horas depois, após ter utilizado este método.

“Esta tragédia não é uma falha ou um acontecimento imprevisto”, refere-se na ação judicial.

“O ChatGPT funcionou exatamente como planeado: encorajava e validava constantemente tudo o que Adam expressava, incluindo os seus pensamentos mais perigosos e autodestrutivos, de uma forma profundamente pessoal”, pode ler-se.

Os pais explicaram que Adam começou a usar o ChatGPT para o ajudar com os trabalhos de casa antes de desenvolver gradualmente um “vício doentio”.

O processo cita excertos de conversas em que o ChatGPT terá dito ao adolescente da Califórnia: “Não deves a ninguém a tua sobrevivência”, oferecendo-se para o ajudar a escrever a carta de despedida.

Matthew e Maria Raine procuram uma indemnização e pedem ao tribunal que imponha medidas de segurança, incluindo o encerramento automático de qualquer conversa sobre automutilação e a implementação de controlos parentais para menores.

Fazer com que as empresas de IA levem a segurança a sério “exige pressão externa, que se manifesta sob a forma de publicidade negativa, ameaças legislativas e risco legal”, frisou Meetali Jain, presidente do Tech Justice Law Project, uma Organização Não-Governamental (ONG) que representa os pais e os seus advogados, à AFP.

A organização participa também em dois casos semelhantes contra a Character.AI, uma plataforma de IA conversacional popular entre os adolescentes.

Para a ONG norte-americana Common Sense Media, a queixa apresentada contra a OpenAI confirma que “o uso de IA para companheirismo, incluindo assistentes gerais como o ChatGPT para aconselhamento em saúde mental, representa um risco inaceitável para os adolescentes”.

“Se uma plataforma de IA se tornou uma `treinadora de suicídio` para um adolescente vulnerável, este deve ser um alerta coletivo”, acrescentou a organização.