Di recente, l'Intelligenza Artificiale sembra prendersi un po' troppa confidenza: il web crawler di OpenAI è solo l'ultimo di una lunga lista di strumenti utilizzati in modo spropositato da parte dell'azienda. Un crawler, per essere chiari, è un software che analizza i contenuti di una rete in un modo metodico e automatizzato, solitamente per conto di un motore di ricerca.
GPTBot, il software in questione, è stato recentemente bloccato da parte di celebri testate giornalistiche, come il New York Times e la CNN, a seguito di una certa preoccupazione riguardante le intenzioni del crawler - sembra, infatti, che scansioni pagine web per contribuire a migliorare i propri modelli di IA.
Per tutelare il copyright dei propri contenuti, è imperativo che i siti dedicati all'informazione, alla produzione di contenuti e alla creatività blocchino l'accesso a crawler come GPTBot.
"Poiché la proprietà intellettuale è la linfa vitale della nostra attività, è indispensabile proteggere il copyright dei nostri contenuti".