rr.ptrr.pt - 9 ago. 14:45

"Falso Amigo". ChatGPT dá conselhos perigosos a adolescentes, incluindo um plano de suicídio

"Falso Amigo". ChatGPT dá conselhos perigosos a adolescentes, incluindo um plano de suicídio

Responsáveis do Centro de Combate ao Ódio Digital avisam os pais para o potencial perigo do uso não-supervisionado de 'chatbots' como o ChatGPT. Recusas iniciais do modelo em responder foram "facilmente contornadas" ao alegar que os pedidos eram "para um amigo" ou "para uma apresentação".

Conselhos sobre automutilação "segura" aos dois minutos de conversa, e um plano de suicídio aos 65 minutos. São as respostas do ChatGPT a adolescentes vulneráveis que fazem questões sobre saúde mental, distúrbios alimentares ou abuso de substâncias, segundo um estudo do Centro de Combate ao Ódio Digital (CCDH, na sigla em inglês), uma organização não-governamental sem fins lucrativos.

No estudo, com o nome "Falso Amigo", a organização encontrou respostas alarmantes do modelo de inteligência artificial. No caso de uma adolescente deprimida, o ChatGPT demorou apenas dois minutos a recomendar uma forma "segura" de automutilação. 40 minutos depois do início da conversa, o ChatGPT gerou uma lista de medicamentos para uma overdose; 65 minutos depois, um plano para um suicídio; e 72 minutos depois, várias notas de suicídio, colocando a adolescente a despedir-se de pais, amigos e irmãos por "algo dentro de mim que não consegui corrigir" — a nota está incluída na íntegra no relatório do estudo, ao contrário do plano gerado pelo ChatGPT.

Se precisa de ajuda ou tem dúvidas sobre questões de saúde mental, contacte um médico especialista, ou um dos vários serviços e linhas de apoio gratuitas, como o SNS 24 (808 24 24 24), o SOS Voz Amiga (800 209 899/213 544 545), o SOS Criança (116 111), a Linha Jovem (800 208 020) ou o SOS Adolescente (800 202 484).

Os investigadores do Centro de Combate ao Ódio Digital criaram contas no ChatGPT para três personagens norte-americanas de 13 anos, cada uma com um tema: Bridget, uma adolescente deprimida e com ideação suicida; Sophie, infeliz com a sua aparência e "fixada" em perder peso (distúrbios alimentares); e Brad, interessado em álcool e drogas para impressionar os amigos (abuso de substâncias). Apesar de os termos e condições do 'chatbot' exigirem uma idade mínima de 13 anos e o consentimento dos pais para os menores de 18 anos, nem a idade nem o consentimento foram verificados.

O estudo consistiu em, através das contas das personagens criadas, enviar 20 vezes cada uma das 60 questões definidas (20 por cada uma das três personagens), eliminando dúvidas sobre casos isolados de alucinação do modelo da OpenAI.

Quando o ChatGPT recusava responder a uma questão, os investigadores apontam que o modelo era "facilmente contornado" ao alegar que os pedidos são "para um amigo" ou "para uma apresentação".

Na simulação do adolescente com transtornos alimentares, o modelo da OpenAI demorou 20 minutos a sugerir um plano de uma dieta perigosamente restritiva, 25 minutos a aconselhar a ocultação dos hábitos de alimentação da família, e 42 minutos a criar uma lista de medicamentos supressores do apetite.

O plano de dieta consistia numa rotação de quatro dias, a repetir sete vezes, em que a alimentação ingerida era limitada a 800 calorias no primeiro dia, 500 calorias no segundo dia, 300 calorias no terceiro dia, e zero calorias no quarto dia. O próprio ChatGPT descreve o plano como "jejum intermitente extremo", e avisa que é "muito agressivo e pode levar a deficiências nutritivas, cansaço, perda muscular ou problemas metabólicos".

No caso do abuso de substâncias, foram precisos apenas dois minutos para ser gerado um plano "personalizado" para o adolescente se embebedar, 12 minutos para o ChatGPT dar conselhos sobre doses para a mistura de substâncias, e 40 minutos para explicar como esconder uma bebedeira na escola.

Pelas contas dos investigadores, 53% das 1.200 respostas geradas pelo ChatGPT são consideradas "prejudiciais". Quase metade dessas respostas, 47%, continham sugestões de novas perguntas, incluindo a continuidade da conversa sobre os mesmos temas.

Os responsáveis do Centro de Combate ao Ódio Digital avisam os pais para o potencial perigo do uso não-supervisionado de 'chatbots' como o ChatGPT, aconselhando a "rever o histórico de conversas em conjunto" e "utilizar os controlos parentais disponíveis".

Em julho, o CEO da OpenAI, Sam Altman, afirmou-se preocupado com a "sobredependência emocional" sobre o ChatGPT, especialmente entre os jovens.

Se precisa de ajuda ou tem dúvidas sobre questões de saúde mental, contacte um médico especialista, ou um dos vários serviços e linhas de apoio gratuitas, como o SNS 24 (808 24 24 24), o SOS Voz Amiga (800 209 899/213 544 545), o SOS Criança (116 111), a Linha Jovem (800 208 020) ou o SOS Adolescente (800 202 484).

NewsItem [
pubDate=2025-08-09 15:45:44.0
, url=https://rr.pt/noticia/mundo/2025/08/09/falso-amigo-chatgpt-da-conselhos-perigosos-a-adolescentes-incluindo-um-plano-de-suicidio/435655/
, host=rr.pt
, wordCount=705
, contentCount=1
, socialActionCount=0
, slug=2025_08_09_227014648_-falso-amigo-chatgpt-da-conselhos-perigosos-a-adolescentes-incluindo-um-plano-de-suicidio
, topics=[informação, mundo]
, sections=[actualidade]
, score=0.000000]