Casi allucinati dall'IA finiscono in altri fascicoli giudiziari e Butler Snow si scusa per un errore “imperdonabile”..

  • 2025-06-11 08:00:00
  • ABA

Butler Snow, uno degli studi legali più celebri all'interno degli Stati Uniti d'America, è recentemente finito sotto ai riflettori dei media a causa dell'utilizzo improprio dell'intelligenza artificiale effettuato da alcuni membri del team. Gli avvocati dello studio avrebbero, infatti, utilizzato ChatGPT per effettuare delle ricerche riguardanti un caso di cui si stavano occupando, ottenendo dei risultati generati dal chatbot, inesistenti.

Non è strano venire a conoscenza di modelli AI che soffrono di "allucinazioni", fornendo risultati falsi, inventati dal servizio così da poter offrire un risultato all'utente. L'errore sta nella mancanza di un controllo della veridicità di quanto ottenuto, oltre alla decisione di ottimizzare i tempi affidando la ricerca a qualcosa di così "instabile", come un chatbot.

A seguito dell'accaduto, lo studio di Butler Snow si è premurato di fornire delle sentite scuse per questo grave errore. Tuttavia, la piaga delle allucinazioni sembra essere solo all'inizio, in quanto diverse altre compagnie stanno segnalando problemi di natura simile.