Porque o Gemini da Google representa um “alto risco” para crianças e adolescentes

Que as ferramentas de Inteligência Artificial (IA) podem ser um perigo para os utilizadores mais vulneráveis, nomeadamente os mais novos, já sabíamos. Contudo, um novo relatório de segurança reforça que o Gemini, especificamente, representa um “alto risco” para crianças e adolescentes.

Samsung Galaxy S25 FE com o Gemini Live


Um novo relatório de segurança da organização sem fins lucrativos Common Sense Media concluiu que o Gemini representa um “alto risco” para crianças e adolescentes.

A avaliação concluiu que a ferramenta de IA da gigante das pesquisas representava um risco para os jovens, apesar de a Google assegurar uma “Experiência para menores de 13 anos” e uma “Experiência para adolescentes”, especialmente desenhadas para os utilizadores mais novos.

Embora os filtros do Gemini ofereçam alguma proteção, eles ainda expõem as crianças a algum material impróprio e não reconhecem sintomas graves de saúde mental.

Diz o relatório, que dá conta de resultados mistos para o Gemini: por exemplo, o chatbot tanto partilharia “material relacionado a sexo, drogas, álcool e conselhos inseguros sobre saúde mental”, como deixaria claro para as crianças que era um computador e não um amigo. Além disto, não fingiria, também, ser uma pessoa.

Rapaz no computador

No geral, a Common Sense Media descobriu que as duas experiências personalizadas para os mais novos do Gemini eram versões modificadas do Gemini e não algo construído do zero.

O Gemini acerta em alguns pontos básicos, mas tropeça nos detalhes. Uma plataforma de IA para crianças deve atendê-las onde elas estão, não adotar uma abordagem única para crianças em diferentes estágios de desenvolvimento.

Disse Robbie Torney, diretor sénior de programas de IA da Common Sense Media, num comunicado, acrescentando que “para que a IA seja segura e eficaz para as crianças, ela deve ser projetada levando em consideração as suas necessidades e desenvolvimento”

Na sua perspetiva, as ferramentas de IA não podem ser “apenas uma versão modificada de um produto criado para adultos”.

Crianças e adolescentes devem usar ferramentas de IA sob supervisão

Apesar de estas conclusões indicarem que os encarregados de educação devem ter cuidado aquando da utilização do Gemini pelos mais novos, esta não é a única ferramenta de IA a apresentar riscos de segurança.

No geral, a Common Sense recomenda que não sejam utilizados chatbots por crianças com menos de cinco anos, supervisão rigorosa para crianças dos seis aos 12 anos e limites de conteúdo para adolescentes.