cerca

Il social network cambia rotta

Ecco come Facebook decide cosa dobbiamo vedere. E arriva il downvote per dire "non mi piace"

Ecco come Facebook decide cosa dobbiamo vedere. E arriva il tasto downvote per dire "non mi piace"

C’è aria di cambiamenti in casa Facebook. A quattordici anni dal lancio, il social network più frequentato del mondo è ormai diventato grande, anzi immenso, con 2 miliardi di utenti attivi e migliaia di post da gestire e indirizzare. E dopo le ultime polemiche sulla diffusione di notizie false, negli uffici di Menlo Park, in California, sono tutti al lavoro per aggiornare l’algoritmo che decide cosa appare sulle nostre bacheche, con l’obiettivo dichiarato di rendere Facebook più umano e affidabile, ma senza dimenticare la principale fonte di guadagno dell’azienda: la pubblicità.

Il tasto downvote è (quasi) un "non mi piace"
Diverse le modifiche e le sperimentazioni messe in campo con l’inizio del nuovo anno. La più recente, in fase di test da pochi giorni sul 5% degli utenti Android statunitensi, riguarda la possibile introduzione di un tasto “non mi piace” – anche se in casa Facebook non vogliono chiamarlo così – per i commenti, che si aggiungerebbe al “mi piace” e al “rispondi”. Con il pulsante “downvote”, gli utenti potranno segnalare un commento su un post di una pagina pubblica che trovano offensivo o fuorviante. Un feedback che almeno per ora non ha effetti su chi ha scritto il commento o sulla pagina che l’ha ricevuto. Ma questa è solo una delle trovate con cui Facebook sta tentando di migliorare l’esperienza degli utenti. Altre già attive per tutti riguardano, invece, la bacheca.

La bacheca sceglie per noi
Una volta era tutto più facile, avrà pensato negli ultimi mesi Mark Zuckerberg, CEO e fondatore della compagnia, quando il News Feed, la meglio nota bacheca, ora considerata la caratteristica principale del social network, non esisteva nemmeno. La possibilità di scorrere i post degli amici in un solo posto, senza dover andare a sbirciare in tutti i profili, viene infatti introdotta solo nel 2006, in un mare di polemiche sulla presunta violazione della privacy. Da quel momento in poi è stato un susseguirsi di aggiornamenti. Il più importante nel 2010: arriva il nuovo algoritmo EdgeRank. I post non vengono più visualizzati in ordine cronologico, ma in base a un punteggio, sempre diverso per ogni persona, calcolato su tre variabili principali: l’affinità fra noi e il contenuto, l’interazione e la data di condivisione. Più alto è il punteggio più alta la posizione del post. Un cambiamento necessario; Facebook comincia ad affollarsi. Sul nostro News Feed ogni giorno dovrebbero apparire in media 1500 post, ma di solito scorriamo solo i primi 300, quelli con maggiore priorità secondo l’algoritmo.

100mila fattori per "ordinare" i post
Nel 2011, mandato in pensione EdgeRank, arriva il sistema di machine learning presente tuttora. Il punteggio di ogni post è calcolato su 100mila fattori diversi, tenendo conto anche di cosa viene scritto nei commenti. E quando siamo offline l’algoritmo mette in ordine la bacheca per quando riapriremo Facebook. Noi utenti rimaniamo comunque in controllo di tutto, o quasi: possiamo decidere i post di quali pagine o amici vedere prima e possiamo settare, anche se in modo non permanente, la bacheca dando priorità alle notizie più recenti e non a quelle scelte dal sistema.

Status ed emozioni "contagiose"
Ma negli anni non sono comunque mancate le accuse di manipolazione dei contenuti. La stessa azienda nel 2014 ha ammesso di aver svolto un esperimento sulle bacheche di 689mila utenti. Modificando l’incidenza di alcuni fattori sul punteggio dei post, i tecnici di Facebook hanno scoperto che l’umore delle storie visualizzate contagia quello di chi le scorre. Se leggiamo post felici saremo inclini a pubblicare status simili; viceversa per quelli tristi. A questo si aggiungono le accuse di creare intorno agli utenti delle filter bubble, che filtrano quello che appare in bacheca mostrandoci spesso notizie che confermano la nostra opinione, e quella della diffusione di fake news.

Interazione e commenti
Da qui i recenti cambiamenti del News Feed arrivati con il nuovo anno. Da ora in poi Facebook darà la precedenza a quelle storie che stimolano il dibattito nei commenti – magari più pacati grazie al “downvote” – e l’interazione fra le persone, con l’obiettivo dichiarato di migliorare l’esperienza degli utenti anche a costo di abbassare il tempo che passano su Facebook, già diminuito di 50 milioni di ore al giorno, come affermato pochi giorni fa da Zuckerberg. Ma se alcuni post vanno più in alto altri vanno più in basso e a pagarne le spese saranno le pagine e i brand. La presenza delle loro storie sulle bacheche diminuirà dal 4% al 5%. 

Visibilità a caro prezzo
In realtà la tendenza a svantaggiare i post delle pagine in favore di quelli dei profili va avanti da diverso tempo e potrebbe nascondere scopi diversi da quelli dichiarati di rendere Facebook più incentrato sui rapporti fra le persone. Nel 2012 il post non sponsorizzato di una pagina raggiunge il 12% degli utenti che la seguono. Nel 2016 la portata organica scende intorno al 2%. Di conseguenza diventa indispensabile per gli amministratori di pagine creare contenuti che stimolano l’interazione fra utenti, ma soprattutto sborsare sempre più soldi in pubblicità per raggiungere, in realtà, sempre meno persone. Per cercare di aumentare la diffusione dei post, Facebook ha introdotto da qualche mese una nuova funzione, l'Explore Feed, una bacheca con i contenuti non sponsorizzati di pagine che non seguiamo, ma che potrebbero interessarci. 

Il sondaggio sulle fonti sicure
C’è poi da risolvere il problema notizie false diffuse da presunte testate giornalistiche, puntualmente condivise dai profili sul social. La soluzione studiata in California è quella di lasciare decidere agli utenti l’affidabilità di una fonte con un sondaggio composto da due domande, svelate dal blog statunitense BuzzFeed. La prima chiede se si conosce o no un certo sito; la seconda di indicare quanto ci si fida di quel sito su una scala di cinque sfumature da “totalmente” a “per niente”. I dati raccolti influenzeranno poi il punteggio assegnato ai post di una certa pagina, contribuendo a portarli più in alto o più in basso sul News Feed.

Bufale ed elezioni
Per quanto riguarda l’Italia, Facebook ha studiato una soluzione ad hoc che dovrebbe proteggerci dalle fake news in questo periodo di campagna elettorale. Il social network ha stipulato un accordo con Pagella Politica, società specializzata nel monitorare le dichiarazioni politiche, che si occuperà di analizzare le notizie segnalate dagli utenti come possibili fake news. Se il post viene ritenuto falso Facebook ce lo segnalerà, inserendo anche un’analisi scritta delle motivazioni. E se decidessimo comunque di condividerlo arriverà una notifica che ci chiederà di confermare la decisione. A questa collaborazione si aggiunge quella con Mondo Digitale, con cui il social network ha stilato dieci suggerimenti per aiutare gli utenti a distinguere le bufale nel mare di Facebook.

Commenti

Condividi le tue opinioni su Il Tempo

Caratteri rimanenti: 1500

.tv

La vittoria de Il Tempo
Carlotta ha il suo comunicatore

Acrobazie e show, gli Harlem Globetrotters a Il Tempo
Urla e scappa, poi accoltella il poliziotto: attimi di paura in via Appia a Roma
"La mia Lazio da Champions ma gli arbitri...", intervista esclusiva a Ciro Immobile