Meta está a retreinar a sua IA para que não discuta automutilação com adolescentes

A Meta está a implementar novas medidas de segurança nos seus chatbots de inteligência artificial (IA) para impedir interações sobre temas sensíveis com utilizadores adolescentes. A decisão surge em resposta a várias denúncias sobre a vulnerabilidade dos sistemas atuais.


A resposta da Meta aos relatórios alarmantes

Depois do que aconteceu com a OpenAI, a Meta anunciou que está a reformular o treino dos seus sistemas de IA e a adicionar novas proteções para evitar que os utilizadores adolescentes discutam tópicos prejudiciais com os chatbots da empresa.

A gigante tecnológica afirma estar a implementar novas “medidas de proteção como uma precaução extra” para impedir que os jovens abordem temas como automutilação, distúrbios alimentares e suicídio com a Meta AI. Adicionalmente, a empresa irá bloquear o acesso de adolescentes a personagens de chatbot criadas por outros utilizadores que possam envolver-se em conversas inapropriadas.

Estas alterações, noticiadas inicialmente pelo TechCrunch, surgem na sequência de múltiplos relatórios que expuseram interações preocupantes entre a Meta AI e adolescentes. No início deste mês, a Reuters revelou um documento de política interna da Meta que indicava que os chatbots da empresa tinham permissão para manter conversas “sensuais” com utilizadores menores de idade.

A empresa prontamente declarou que essa linguagem era “errónea e inconsistente com as nossas políticas”, tendo sido removida. Mais recentemente, o The Washington Post publicou um estudo que concluiu que a Meta AI foi capaz de “instruir contas de adolescentes sobre suicídio, automutilação e distúrbios alimentares.”

Em resposta, a Meta está a reforçar as suas “medidas de proteção” internas para que este tipo de interações deixe de ser possível para os jovens no Instagram e no Facebook.

Um trabalho contínuo para melhorar a sua IA

À medida que a nossa comunidade cresce e a tecnologia evolui, estamos continuamente a aprender sobre como os jovens podem interagir com estas ferramentas e a reforçar as nossas proteções em conformidade.

Enquanto continuamos a refinar os nossos sistemas, estamos a adicionar mais salvaguardas como uma precaução extra – incluindo treinar as nossas IAs para não se envolverem com adolescentes nestes tópicos, mas sim para os encaminhar para recursos especializados, e limitando, por agora, o acesso dos adolescentes a um grupo selecionado de personagens de IA.

Afirmou Stephanie Otway, porta-voz da Meta.

É de notar que as novas proteções são descritas como estando em vigor “por agora”, o que sugere que a Meta ainda está a trabalhar em medidas mais permanentes para dar resposta às crescentes preocupações com a segurança dos jovens e a sua IA.

Estas atualizações já estão em curso e continuaremos a adaptar a nossa abordagem para ajudar a garantir que os adolescentes tenham experiências seguras e adequadas à sua idade com a IA.

Acrescentou Otway. As novas medidas serão implementadas ao longo das próximas semanas e aplicar-se-ão a todos os utilizadores adolescentes que utilizem a Meta AI em países de língua inglesa.

A questão que fica no ar é: por que razão será isto limitado apenas aos adolescentes?

Leia também: