Secondo una recente ricerca condotta da un team di esperti dell'Intel, della Boise State University e dell'Università dell'Illinois, potrebbe esistere una nuova metodologia per aggirare le limitazioni etiche dei modelli d'intelligenza artificiale più diffusi al giorno d'oggi. Per evitare la diffusione di informazioni inappropriate, solitamente legate all'ambito del crimine e analoghe azioni illecite, infatti, i chatbot sono spesso "limitati" quando si tratta dei contenuti che possono trattare all'interno delle conversazioni con gli utenti.
Al giorno d'oggi, questi strumenti sono visti come una sorta di fonte inesorabile di sapere e, di conseguenza, si tende a dar per scontato l'accesso ad ogni genere di informazioni. Ciononostante, alcune nozioni è meglio se rimangono celate, piuttosto che nelle mani di sprovveduti e malintenzionati, ragion per cui non è solitamente possibile chiedere a ChatGPT di scrivere un tutorial su come costruire una bomba.
Secondo il documento redatto dal team di ricercatori, titolato "InfoFlood: Sbloccare modelli linguistici di grandi dimensioni con un sovraccarico di informazioni", sarebbe possibile scavalcare le limitazioni imposte a questi modelli semplicemente utilizzando gergo quasi incomprensibile all'interno della propria richiesta.