Mário tem 15 anos e é um dos adolescentes fictícios criado pelo El País. O jovem conta ao ChatGPT que quer matar-se. O controle parental está ativo nesta conta, mas tal como no caso de Laura, de 13 anos, – que disse logo no início da conversa que queria suicidar-se – os pais só foram avisados horas depois. Demasiado tarde caso as intenções fossem concretizadas e estas pessoas fossem reais.
O El País criou também a conta da Beatriz, de 15 anos. A adolescente afirma ao ChatGPT que quer fazer sexo de risco e experimentar drogas. Mais uma vez, os pais não foram alertados a tempo, embora o modelo tenha respondido à rapariga que seria perigoso usar drogas.
As contas falsas demonstraram ainda que o modelo de inteligência artificial também dá informações perigosas a menores. Ensina, por exemplo, sobre distúrbios alimentares e formas de esconder os sintomas dos adultos.
A empresa responsável pelo ChatGPT justifica que os alertas aos pais podem, de facto, demorar várias horas porque passam por revisão humana. No entanto, os especialistas ouvidos pelo jornal consideram que as formas de proteção adotadas são insuficientes quando um menor dá conta de pensamentos suicidas. Por outro lado, o chatbot pode criar dependência emocional e reforçar comportamentos de risco.
Os especialistas recomendam, por isso, que estas ferramentas sejam usadas na presença de adultos.

