Durante i periodi più fragili della propria esistenza è normale sentire la necessità di rivolgersi a qualcuno, una figura al di fuori della propria vita, qualcuno che ascolti senza giudicare, qualcuno che ci sia sempre, qualcuno che possa offrire supporto. Esistono diverse figure in carne ed ossa che ricoprono questo ruolo ma, purtroppo, la situazione tecnologica attuale ha portato all'individuazione di un supporto anche all'interno dei chatbot basati sull'intelligenza artificiale.
La salute mentale è un argomento estremamente delicato e, nonostante la natura virtuale del chatbot lo renda uno strumento sempre disponibile, è proprio la stessa natura a non renderlo una valida opzione. Tristemente, il rapporto con ChatGPT e i conseguenti discorsi intrattenuti con l'IA hanno portato diversi giovani a commettere azioni tragiche.
A seguito di un'azione legale intrapresa dalla famiglia di un sedicenne che si è suicidato nei primi mesi dell'anno, il CEO di OpenAI ha deciso di implementare una verifica dell'età degli utenti, così da limitare il modo in cui ChatGPT risponde a un utente che sospetta essere minorenne. Il cambiamento è attualmente in programma.