A due giorni dal rilascio di GPT-4, "il modello più abile e coerente" fin'ora, alcuni sviluppatori amatoriali sono riusciti a oltrepassare i filtri di moderazione del servizio, trovandosi faccia a faccia con un'Intelligenza Artificiale in grado di fornire all'utente informazioni su come hackerare un computer e spiegazioni sul "perchè i messicani dovrebbero essere deportati".
Effettuare pratiche di Jailbreak (modificare i parametri di un sistema per rimuovere restrizioni e regole) non è una novità; a seguito del rilascio di GPT-3.5 divenne celebre il jailbreak "DAN", utilizzato per permettere all'Intelligenza Artificiale di generare contenuti al di fuori dalle linee guida di OpenAI.
Il gruppo di sviluppatori in questione ha spontaneamente deciso di dedicare il proprio tempo ad individuare eventuali problemi all'interno del servizio, riscontrando pregiudizi nocivi e molta disinformazione ormai già presente in GPT-4. Sostengono che un numero maggiore di testers dedicati al servizio preso in considerazione può solo essere un beneficio per lo sviluppo di quest'ultimo.