L'uso dell'intelligenza artificiale in ambienti professionali è ormai inevitabile, diventa quindi di fondamentale importanza il ruolo umano del controllo delle informazioni fornite o redatte dal sistema d'IA al quale ci si è affidati. Questo strumento non è miracoloso, non è un incantesimo che assicura risultati corretti e di qualità ogni volta - è una tecnologia ancora in fase di sviluppo, che tende a dare risposte inaffidabili o, addirittura, ad "allucinare" informazioni completamente false.
Nel caso dell'articolo di riferimento di oggi, un tribunale nel Wyoming ha dovuto richiedere una spiegazione ufficiale ad un gruppo di avvocati coinvolti in alcuni casi, in quanto avevano presentato alla corte una serie di falsi precedenti legali. L'IA a cui si affidavano per velocizzare il processo di ricerca e redazione aveva inventato dei casi che potessero concordare con ciò a cui stavano lavorando, offrendo quindi risultati apparentemente accurati - nonostante fossero falsi.
Le persone coinvolte hanno ammesso il loro errore e dichiarato che quanto accaduto è stata ragione di un'attenta discussione sul controllo e l’uso dell’intelligenza artificiale all’interno del loro ambiente di lavoro.