Chi boicotta e chi ci fa un videogioco. E Google che getta acqua sul fuoco

Chi boicotta e chi ci fa un videogioco. E Google che getta acqua sul fuoco

Febbraio 25, 2018 - 20:01

Sulla diffusione delle fake-news forse si è a un punto di svolta, dal momento che anche i colossi dell'economia globale hanno ritenuto di averne abbastanza. Unilever, il secondo più grande inserzionista al mondo, ha mandato un chiaro segnale a Google, Facebook & Co, dichiarando che se non pongono presto degli argini ai contenuti falsi, di odio e in generale inappropriati, toglieranno la loro pubblicità dalle piattaforme digitali dei colossi del web (vedi qui). Intanto direttamente dal prestigioso ateneo di Cambridge arriva un videogioco per "addestrare" gli utenti del web a difendersi e a riconoscere le fake-news (svelando alcuni interessanti meccanismi che stanno dietro alla diffusione di talune notizie).
Ma alla fine, le fake-news hanno davvero tutta questa influenza sull'opinione (e dunque sul voto)
dei cittadini? Google, quasi a volersi difendere (d'altronde Unilever non è stata la prima a "boicottare" le piattaforme online in relazione ai loro contenuti, vedi qui), già lo scorso giugno aveva commissionato uno studio che affermava che il pericolo delle fake-news non è poi così grande...

5 giugno 2017
Quanto peso hanno le fake-news nell'influenzare l'opinione pubblica? Nel corso della campagna elettorale delle presidenziali Usa molti avevano commentato allarmati la possibilità che a determinare il voto della scorso novembre avrebbe concorso anche la diffusione di fake-news volte a favorire il candidato repubblicano. Ora uno studio  della Michigan State University e di Oxford vuole ridimensionare questi timori. Lo studio, che è stato finanziato da Google, sostiene che disinformazione e fake-news non influenzano così profondamente le scelte politiche degli utenti, che utilizzando vari media e diverse fonti di informazione e così possono costruirsi un opinione  più aderente ai fatti. "E' esagerato pensare che la ricerca online crei dei filtri in cui un algoritmo indovina quali informazioni un utente desidera", si legge nelle conclusioni della ricerca. "Gli utenti maneggiano informazioni diverse per formare un loro punto di vista. Questo dovrebbe rendere meno allarmisti".