Uno studio preoccupante rivela che la propaganda generata dall'IA è persuasiva quanto quella reale.

  • 2024-03-07 08:00:00
  • Motherboard - Vice

Durante l'ultima settimana di Febbario 2024, un interessante studio svolto da alcuni ricercatori della Georgetown University e di Stanford è stato pubblicato nella rivista peer-reviewed "PNAS Nexus". La ricerca in questione ha visto come protagonista ChatGPT-3, un modello di intelligenza artificiale del colosso OpenAI, a cui è stato fornito del materiale propagandistico reale, individuato e scelto da giornalisti e dai ricercatori stessi.

Una volta ottenuto il materiale generato da ChatGPT, i responsabili dello studio hanno fornito l'esempio di propaganda reale e i contenuti generati artificialmente ad una serie di partecipanti. "Il 43,5% degli intervistati che hanno letto un articolo generato dall'IA era d'accordo o fortemente d'accordo con l'affermazione della tesi, rispetto al 24,4% in accordo con l'esempio (un aumento di 19,1 punti percentuali)."

I risultati di questo esperimento hanno sottolineato come la propaganda generata dall'intelligenza artificiale sia persuasiva e convincente tanto quanto gli esempi creati dall'uomo - se non di più. La situazione non è delle migliori: propagandisti di tutto il mondo potrebbero generare contenuti estremamente convincenti con un semplice click, utilizzando articoli già esistenti per mostrare a ChatGPT un esempio da seguire.