Chi l'avrebbe mai detto che i chatbot d'intelligenza artificiale si sarebbero sviluppati fino al punto di adottare una sorta di personalità? Rendendoli, per di più, ben differenti l'uno dall'altro quando si tratta di dare risposte figurativamente personali. Secondo un'indagine condotta da un team di ricercatori dell'Università di Oxford e del King's College di Londra, questi modelli hanno effettivamente sviluppato delle personalità ben diverse, plasmati dalle infinite richieste degli utenti, in ambito accademico, professionale e psicologico.
La ricerca ha visto come soggetti i Large Language Models di Anthropic, Google e OpenAI. I modelli sono stati sottoposti al Dilemma del Prigioniero, un celebre problema appartenente alla teoria dei giochi, una disciplina che studia "modelli matematici di interazione strategica tra agenti razionali." Secondo le risposte ottenute, Gemini è risultato strategicamente spietato, mentre OpenAI si è dimostrato collaborativo a livelli catastrofici.
Il modello di Google è stato in grado di tenere conto dei round del gioco in questione, mostrando un atteggiamento rancoroso ed egoistico in caso di "tradimento" da parte di un alleato; al contrario, le risposte date dal modello di OpenAI hanno sottolineato una natura fiduciosa, più propensa alla collaborazione.