I sistemi di intelligenza artificiale attuali sono indubbiamente caratterizzati da delle chiare preferenze - pregiudizi, alcuni direbbero. Considerando l'origine dei materiali per "addestrare" questi modelli, che si tratti di LLM (large language models) o generatori IA di contenuti visivi, è ormai generalmente risaputo che i risultati forniti da questi strumenti sia condizionato dalle informazioni utilizzate nel processo d'addestramento.
Di conseguenza, qualsiasi risposta ottenuta da un sistema d'intelligenza artificiale non può essere imparziale, sarà sempre influenzata da tutto ciò che si trova sullo sfondo del processo. Gli esperti e i ricercatori dell'ambito hanno sottolineato quest'importante dettaglio fin dall'inizio, ma sembra che non sia stato particolarmente preso in considerazione.
Tuttavia, Meta ha recentemente condiviso il proprio impegno nel tentativo di rimozione di queste "preferenze - pregiudizi" all'interno dello sviluppo di Llama 4, la sua intelligenza artificiale. Il motivo dietro a questo improvviso sforzo? Il modello tendeva a mostrare un orientamento politico verso la sinistra.