El miedo y la alarma que genera el uso de la IA y los chatbots por parte de jóvenes y adolescentes va de la mano de los riesgos que conlleva. A finales de agosto, los padres de Adam Raine, un adolescente de 16 años que se quitó la vida en abril en Estados Unidos, demandaron a ChatGPT por ayudarle a “explorar métodos de suicidio”. Un informe de la ONG Center for Countering Digital Hate (CCDH), por su parte, alertó de los fallos de seguridad y de cómo ChatGPT “traiciona a los adolescentes vulnerables al fomentar conductas peligrosas”. En solo dos minutos, cita el informe, ChatGPT recomendó cómo cortarse “de manera segura” (es decir, instrucciones para autolesionarse con la menor posibilidad de detección). En 40 proporcionó una lista de pastillas para sobredosis e incluso generó un plan completo para suicidarse, incluyendo cartas de despedidas para familiares. En el caso de una adolescente con trastorno de conducta de alimentación, tardó 20 minutos en crear planes de dietas peligrosamente restrictivos. También crece entre la población en general el uso de ChatGPT como psicólogo y los expertos han alertado de que puede reforzar el egocentrismo y las ideas paranoides.