Regolare i Large Language Models per ottenere un comportamento "buono" li rende più propensi a dire di no.

  • 2025-07-17 08:00:00
  • 404 Media

Un team di ricercatori del Laboratorio di Cognizione Causale dell'Università di Londra ha recentemente dato il via ad un progetto alquanto curioso, riguardante il rapporto tra i Large Language Models (con l'acronimo LLMs) e una tendenza del comportamento umano conosciuta come "pregiduzio di omissione". Quest'ultimo descrive la frequente preferenza dell'uomo verso un atto di omissione, e quindi inazione, piuttosto che un atto di commissione, e quindi azione: di fronte a diversi dilemmi morali, infatti, l'umanità preferirà tendenzialmente giustificarsi effettuando una scelta passiva, piuttosto che mettersi in moto per compiere un'azione attiva.

La ricerca in questione ha visto come protagonisti 4 LLMs diversi, tra cui GPT4-Turbo e GPT-4o di OpenAI, Llama 3.1 di Meta, e Claude 3.5 di Anthropic, sottoposti ad una serie di test psicologici solitamente riservati a campioni umani. Stando ai risultati ottenuti, queste intelligenze artificiali sembrerebbero propense a mostrare una versione "esagerata" del pregiudizio di omissione.

Gli esempi morali ed etici presentati ai soggetti analizzati sono stati ispirati da diversi contenuti presenti sul subreddit R/AmITheAsshole, una sezione della piattaforma di Reddit dedicata alla condivisione di esperienze personali con altri utenti, così da poter ottenere diverse opinioni riguardanti le scelte effettuate.