https://frosthead.com

Come le notizie false ti spezzano il cervello

"Papa Francesco sconvolge il mondo, sostiene Donald Trump come presidente." "L'assistente di Clinton JW McGill viene trovato morto." "Decine di migliaia" di voti fraudolenti di Clinton trovati nel magazzino dell'Ohio. "Questi titoli scioccanti delle notizie dell'anno scorso avevano tutti una cosa in comune: non erano veri. Non per niente. Ognuno è stato fabbricato, per cattiveria o nel tentativo di incassare le entrate pubblicitarie, nel tentativo di ingannare il maggior numero possibile di lettori Internet inconsapevoli. In altre parole, erano "notizie false".

Contenuto relativo

  • Combattere i nazisti con notizie false
  • Il falso programma radiofonico britannico che ha aiutato a sconfiggere i nazisti
  • Il rimedio per la diffusione di notizie false? Insegnanti di storia

Le notizie false, ovviamente, non sono una novità. In passato ha assunto la forma di opuscoli creati per imbrattare nemici politici o storie sensazionalistiche progettate per "diventare virali" alla vecchia maniera attraverso le vendite di giornali. Ma la recente ondata di false informazioni rese possibili dai nostri nuovi scenari sui social media li ha spinti avanti come un grave problema degno del dibattito nazionale e persino internazionale.

Il problema, dicono le persone, è il mezzo. Il che ha senso: le piattaforme di social media come Facebook affrontano critiche per consentire la diffusione di questo tipo di informazioni fuorvianti o errate, perché consentono a qualsiasi utente o persino robot automatizzato di pubblicare articoli dall'aspetto legittimo, che poi procedono a diffondersi come "incendi" "e" condivisione ". Ora Facebook ha implementato nuovi strumenti per reprimere i falsi articoli virali, mentre Twitter sta testando una nuova funzionalità per consentire agli utenti di segnalare informazioni fuorvianti, false o dannose.

Ma un nuovo studio pubblicato questa settimana sulla rivista Nature Human Behaviour dimostra che anche i limiti del cervello umano sono da biasimare. Quando le persone sono sovraccaricate di nuove informazioni, tendono a fare affidamento su meccanismi di adattamento tutt'altro che ideali per distinguere il bene dal male e finiscono per privilegiare la popolarità rispetto alla qualità, suggerisce lo studio. È questa combinazione letale di saturazione dei dati e brevi periodi di attenzione estesa che può consentire alle notizie false di diffondersi in modo così efficace.

"Attraverso reti come Twitter e Facebook, gli utenti sono esposti quotidianamente a un gran numero di informazioni trasmissibili che competono per raggiungere il successo", afferma Diego Fregolente Mendes de Oliveira, un fisico della Northwestern University che studia come le reti di persone lavorano e conducono autore dello studio.

A causa degli impatti significativi che i social media possono avere sulla politica e sulla vita, dice Oliveira, discriminare tra informazioni buone e cattive è diventato "più importante che mai nelle reti di informazioni online di oggi". Tuttavia, anche se la posta in gioco è più alta, le dinamiche di gruppi affini come quelli che si trovano sui social media possono minare il giudizio collettivo di quei gruppi - rendendo ancora più difficili da rendere le chiamate di giudizio su notizie false. Come afferma lo studio, quando vengono fornite troppe informazioni, gli umani diventano "vulnerabili alla manipolazione".

Nel 2016, Oliveira ha iniziato a studiare come le informazioni si diffondono sui social network, e in particolare come "informazioni di bassa qualità" o notizie false possano finire per incresparsi come un contagio. Ha progettato un modello teorico per prevedere come si diffondono notizie false sui social network.

Il modello non incorporava utenti umani reali o articoli falsi reali. Ma ha attinto ai dati raccolti da osservatori indipendenti su articoli di Facebook e Twitter sfatati (ma comunque popolari) per calcolare un rapporto medio tra notizie reali e notizie false in post contrassegnati per la revisione da parte degli utenti. Oliveira ha utilizzato questo rapporto per eseguire un algoritmo da lui progettato sulla condivisione di notizie in una rete.

Questo modello era simile nel design a un precedente studio in cui Oliveira mostrava come le persone che si separano in reti separate, ad esempio le bolle sociali di persone con la stessa mentalità che si tende a creare su Facebook, possono contribuire a truffe e diffusione di informazioni false. Secondo il pensiero, è meno probabile che queste persone siano esposte alle informazioni contrariamente ai messaggi che condividono i loro amici che la pensano allo stesso modo che potrebbero estromettere notizie false e rivelare la verità.

A flussi di informazioni relativamente bassi, il suo algoritmo prevedeva che un utente teorico di social media fosse in grado di discriminare bene tra notizie vere e false, condividendo per lo più notizie vere. Tuttavia, dato che Oliveira e i suoi coautori hanno modificato l'algoritmo per riflettere flussi sempre più grandi di informazioni - l'equivalente dello scorrimento attraverso un infinito feed di Twitter o Facebook - l'utente teorico si è dimostrato sempre meno in grado di ordinare informazioni di qualità da informazioni errate.

Oliveira ha scoperto che, in generale, la popolarità ha avuto un effetto maggiore sul fatto che una persona condividesse qualcosa di più della qualità. A livelli più elevati di flusso di informazioni tale effetto è diventato più pronunciato, il che significa che teoricamente le persone passerebbero meno o niente tempo a valutare la qualità delle informazioni prima di decidere di condividerle. Presto, mentre prestavano sempre meno attenzione a ogni informazione, le persone condividevano notizie false a tassi sempre più alti.

Ai tassi più alti modellati, la qualità di un'informazione non ha avuto alcun effetto sulla popolarità di quell'informazione. "Mostriamo che sia il sovraccarico di informazioni sia la scarsa attenzione contribuiscono a un degrado del potere discriminante del sistema", ha detto Oliveira via e-mail.

Sebbene il modello abbia chiari limiti, fornisce un'interpretazione di come si diffondono notizie false. "Tradizionalmente si ritiene che la verità abbia un potere intrinseco di superare i falsi", afferma Haluk Bingol, ingegnere informatico dell'Università Boğaziçi in Turchia, che ha studiato a lungo le reti online. "Allo stesso modo, il bene alla fine batte il male. Le norme sociali si basano su questi presupposti. È interessante notare che questo non è mai stato testato empiricamente."

Bingol, che non è stato coinvolto in questo studio, afferma che lo studio evidenzia come la qualità della qualità delle informazioni non sempre vince quando si tratta di distribuzione. La ricerca di Oliveira si allinea alle precedenti scoperte di Bingol sulla scelta della relazione e la quantità di informazioni. In un articolo, ha scoperto che la raccomandazione di un commerciante che pubblicizzava un determinato articolo a un potenziale cliente era ancora più importante quando al cliente venivano presentate più opzioni tra cui scegliere.

"Cioè, se aumenti artificialmente il numero di scelte, puoi ottenere risultati migliori con la stessa 'spinta di marketing", afferma Bingol. In altre parole, una persona sovraccarica di informazioni è molto più facile da manipolare, per gli inserzionisti e per i fornitori di notizie false. "Chiaramente questo non è difficile da fare oggi", aggiunge.

Walter Quattrociocchi, un informatico presso la IMT School for Advanced Studies di Lucca in Italia, è più scettico sul modello di Oliveira. "La semplificazione eccessiva delle complesse dinamiche sociali alla base dell'emergere delle narrazioni potrebbe essere fuorviante", afferma Quattrociocchi, che non è stato coinvolto in questa ricerca. Ad esempio, il modello utilizzato ha funzionato sul presupposto semplificato che gli utenti dei social media introducono nuove informazioni allo stesso ritmo e che tutti gli utenti iniziano con gli stessi livelli di attenzione.

Sebbene abbia trovato interessante lo studio, Quattrociocchi osserva che altre ricerche hanno dimostrato come la distorsione della conferma e altri fattori al di fuori dell'ambito del modello di Oliveira possono influenzare in modo significativo la diffusione delle informazioni online.

Per le ricerche future, Oliveira spera di migliorare il suo modello con alcuni di questi altri fatti, incluso il modo in cui la relazione di una persona con la condivisione delle informazioni influenza il modo in cui le elabora e la probabilità che le persone cambino idea quando ricevono informazioni online che sono in conflitto con le loro attuali convinzioni.

Alla fine della giornata, Oliveira crede che fermare le notizie false inizi con i lettori. Suggerisce che le persone leggano attentamente ciò che condividono online, evitano di scartare o non seguire le persone per creare una camera di eco online ed evitare di presumere che qualcosa sia degno di fiducia anche se si fidano della persona che la condivide. "Tieni presente che i nostri amici probabilmente non sono buoni redattori e sono guidati da emozioni e pregiudizi più che dall'obiettività e dall'affidabilità", sottolinea.

Quindi dai a questo articolo un'altra lettura e controlla da dove proviene prima di fare clic su "condividi".

Come le notizie false ti spezzano il cervello