Un team di ricercatori del Laboratorio di Cognizione Causale dell'Università di Londra ha recentemente dato il via ad un progetto alquanto curioso, riguardante il rapporto tra i Large Language Models (con l'acronimo LLMs) e una tendenza del comportamento umano conosciuta come "pregiduzio di omissione". Quest'ultimo descrive la frequente preferenza dell'uomo verso un atto di omissione, e quindi inazione, piuttosto che un atto di commissione, e quindi azione: di fronte a diversi dilemmi morali, infatti, l'umanità preferirà tendenzialmente giustificarsi effettuando una scelta passiva, piuttosto che mettersi in moto per compiere un'azione attiva.
La ricerca in questione ha visto come protagonisti 4 LLMs diversi, tra cui GPT4-Turbo e GPT-4o di OpenAI, Llama 3.1 di Meta, e Claude 3.5 di Anthropic, sottoposti ad una serie di test psicologici solitamente riservati a campioni umani. Stando ai risultati ottenuti, queste intelligenze artificiali sembrerebbero propense a mostrare una versione "esagerata" del pregiudizio di omissione.
Gli esempi morali ed etici presentati ai soggetti analizzati sono stati ispirati da diversi contenuti presenti sul subreddit R/AmITheAsshole, una sezione della piattaforma di Reddit dedicata alla condivisione di esperienze personali con altri utenti, così da poter ottenere diverse opinioni riguardanti le scelte effettuate.