È un argomento che mi porto dietro da qualche tempo, ma senza avergli mai dato più spazio del dovuto. Rileggevo notizie come la multa imposta dall’UE a “X” (al secolo Twitter) sull’argomento “spunta blu” e sulla mancanza di trasparenza nella gestione del suo significato. Leggevo di come la suddetta piattaforma avesse implementato una rivoluzionaria funzionalità che ha messo in evidenza come siti di propaganda politica avessero origini non locali. Oppure di come, ancora, le piattaforme social pilotino l’opinione della popolazione in base al numero di like/condivisioni che accompagnano un post.
Arrivano periodicamente, poi, articoli sensazionalistici che descrivono le piattaforme come “afflitte dai bot” e da profili fake, giocando la carta del vittimismo accompagnata dalla volontà di mostrare il proprio impegno per costruire una piattaforma migliore, in cui siano gestite regole della community che, ancora oggi, non sono ben chiare.
Vogliamo provare a dire la verità? Si tratta fondamentalmente di affermazioni false, tecnicamente non sostenibili. Se volessimo poi fare una considerazione più ad ampio spettro, potremmo dire che sia persino un insulto nei confronti del proprio pubblico.
Tuttavia, sono affermazioni che fanno comodo, ingolosiscono, tengono le persone attaccate al social media, giocando sulla dipendenza da dopamina tipica del gioco d’azzardo, del fumo o droghe.
Laddove si possa applicare il detto “fatta la legge, trovato l’inganno” in termini sociali, Internet si basa su regole, invece, che non possono essere aggirate. Sarebbe un po’ come cercare di sfidare le leggi della fisica, tentando di far volare un aereo senza tenere conto della gravità, dell’aerodinamica e tutti gli altri elementi necessari.
Tornando, quindi, all’affermazione “piagnistea” del vittimismo mediatico dei social media; ridurre considerevolmente il numero di “bot” che infestano, come termiti, le fondamenta delle piattaforme è possibile. Sarebbe sufficiente analizzare il traffico e il “comportamento” degli account per fermare il fenomeno. Diversi elementi chiave potrebbero essere tranquillamente utilizzati per limitare l’accesso alle piattaforme di origini che non possono essere umane: data center, motori di ricerca, click farm.
Non lo si fa per un semplice motivo: convenienza.
Non sono nemmeno necessarie tecnologie avveniristiche, ad essere sinceri. L’impiego di “intelligenza artificiale” per limitare gli accessi di profili “fake”, infatti, dimostra di poter fare più danni di quanti siano i benefici, bloccando l’accesso a utenti, professionisti, micro-influencer o influencer che, al contrario, subiscono danni reali senza avere nessuno a cui rivolgersi.
Fa comodo, invece, a chi offre servizi illegali (senza esserlo ufficialmente, visto che non esistono regole in merito) come le sopra menzionate click-farm, streaming farm o qualsiasi altro servizio che permetta di creare “engagement” a pagamento.
Come sarebbe un “X” senza profili che copiano/incollano contenuti altrui? Rigorosamente senza attribuzione perché, nell’era del social network, abbiamo capito che il diritto d’autore può anche andare a farsi fottere (senza mezzi termini). Come sarebbe un Instagram senza commenti fatti solo di emoji o “Gran post!” sparati alla rinfusa?
Se, da un lato, “tanti bot” equivalgono a “tanto traffico”, invitando le persone a partecipare ad una comunità allargata in cui è possibile dire la propria per cercare eco delle proprie idee, dall’altro, la possibilità di sfruttare professionalmente lo strumento crolla drammaticamente. La propria visibilità collassa sotto il peso di una quantità di contenuti impossibile da gestire, algoritmi che promuovono solo ciò che vuole il management, e IA che imperversano e cannibalizzano il cannibalizzabile.
D’altro canto, chi ne beneficia è (sulla carta) la piattaforma stessa che può, a suo dire, vendere ancora più pubblicità, visto e considerato che l’algoritmo è in grado di proporre contenuti anche agli utenti veri, in carne ed ossa. Su questo punto ci sarebbe da domandarsi, tuttavia, se i social media manager (o presunti tali, visto che non “maneggiano” un gran bel niente) si siano mai posti una semplice domanda: ciò che mi dice la piattaforma analytics di Meta o Google corrisponde alla realtà? Noi ce lo siamo posti, e il 50% di quanto affermato da Meta non lo abbiamo mica trovato nelle evidenze.
Non credo esista una soluzione definitiva al problema “bot”, soprattutto se applichiamo la filosofia “gli unici veri innovatori ossessivi compulsivi sono i truffatori”. Ciononostante, affermare che sia un problema così diffuso da essere incontrollabile è falso. Chi lo afferma, lo fa consapevolmente con l’intento di indirizzare l’opinione altrui. Se poi hai milioni o miliardi a disposizione tra tecnologie e risorse, i casi sono tre: non sei capace di farlo, non hai la più pallida idea di come funzioni ciò che hai creato, o non vuoi farlo (con ovvia preferenza per la terza).
Sarebbe il caso, quindi, di domandarsi: le società spinte da profitti spasmodici e voraci sono davvero interessate ad affrontare un problema vecchio come Internet?