Per provare a combattere la disinformazione, il social network valuta gli iscritti in una scala da zero a uno in base alla loro capacità di riconoscere cosa è vero e cosa non lo è!

Facebook assegna un punteggio alla nostra attendibilità e alla nostra capacità di distinguere cosa è vero da cosa non lo è. A dare la notizia, destinata a far discutere, è stato il Washington Post. Tessa Lyons, product manager del social network da 2,2 miliardi di iscritti, ha spiegato che si tratta di una delle iniziative intraprese per combattere la disinformazione, contro la quale la lotta si sta intensificando in vista del voto midtem del prossimo novembre negli Usa (625 profili falsi riconducibili a Iran e Russia sono stati appena cancellati).

In sostanza, fra le indicazioni con cui Facebook nutre il suo algoritmo per cercare di declassare i contenuti falsi o potenzialmente falsi c’è anche un giudizio sui singoli utenti. Se sa (o pensa di sapere) chi è maggiormente propenso a valutare e diffondere assurdità, il colosso californiano può provare a intervenire in modo più efficace. Sviluppato nel corso dell’ultimo anno, il sistema è già attivo e assegna un punteggio compreso fra zero e uno. Non è chiaro, e non è stato chiarito, quali e quante variabili vengano prese in considerazione e quale peso abbiano e se siano tutti valutati o esclusivamente un gruppo di persone.

Lyons ha però fornito un’informazione preziosa: Facebook ha iniziato a valutare i suoi utenti dopo essersi reso conto della loro inaffidabilità quando segnalano alla piattaforma un contenuto come potenzialmente falso. La possibilità di farlo è attiva dal gennaio del 2015: poco meno di due anni prima dell’esplosione del caso fake news causata dall’elezione di Donald Trump negli Stati Uniti. Dal marzo del 2017, quando Menlo Park si era già ampiamente rassegnato ad assumersi la responsabilità di quanto circola al suo interno, i contenuti contro cui gli utenti hanno puntato le tastiere vengono poi analizzati dai cosiddetti fact-checker (in Italia c’è Pagella Politica) assoldati da Facebook stesso.

Secondo quanto dichiarato dalla product manager al Washington Post, molte persone indicavano come fake i contenuti con cui non erano d’accordo. Ecco perché nei corridoi di Menlo Park è balenata l’idea di (provare a) valutare la capacità di discernere di chi è chiamato, fra le altre cose, anche a giudicare l’affidabilità delle testate giornalistiche presenti sul social network. Ad esempio, adesso chi ha inviato feedback poi giudicati errati dai fact checker merita meno fiducia (algoritmica) di chi manda segnalazioni solo quando è effettivamente al cospetto di un falso. In questo modo, ha proseguito Lyons, l’algoritmo aiuta a rendere più leggero il faldone inviato ai fact checker. In una nota inviata al Corriere, Facebook tiene a sottolineare che non c’è alcun «punteggio sulla reputazione centralizzato».

Difficile, per chi lo ha visto, non pensare all’episodio Caduta Libera di Black Mirror, in cui la protagonista e gli altri personaggi sono condizionati offline dal punteggio ottenuto grazie alle loro interazioni in Rete: chi è popolare online può godere di diritti, benefici, offerte e sconti. E chi non è popolare rimane ai margini di una società in cui solo l’approvazione di chi ha un punteggio alto può aiutare a migliorare il proprio. Non siamo (ancora) a questo distopico punto, ma Facebook ha di fatto ammesso per la prima volta di classificare qualitativamente il comportamento dei suoi utenti. Non solo, usa il dato — o meglio, il gruppo di dati — per dare loro più o meno visibilità. Per ora, pare, solo ai fact-checker, che potranno ricevere un numero maggiore o minore di segnalazioni da parte di un utente anche in base alla sua attendibilità. Quanto ci vorrà per applicare lo stesso sistema allo spazio concesso nel News Feed? Ovvero: i link e i post dell’utente poco attendibile potrebbero finire nell’ombra.

Poi, così facendo Facebook rimette prepotentemente l’algoritmo al centro di un flusso — quella della segnalazione e del declassamento delle fake news — la cui garanzia di equità era affidata all’intervento dei fact checker . Chi decide cosa mostrargli (aspetto sul quale avevano già manifestato perplessità)? La risposta: Facebook. Con una formula matematica, basata anche sulla nostra capacità di distinguere il vero dal falso (secondo Facebook).

Fonte: Il Corriere della Sera

0 commenti

Lascia un Commento

Vuoi partecipare alla discussione?
Fornisci il tuo contributo!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *