I social network sono diventati la principale fonte di notizie per milioni di persone in tutto il mondo. Secondo uno studio del Reuters Institute, oltre il 50% degli utenti globali si informa attraverso piattaforme come Facebook e Instagram, mentre nei giovani tra i 18 e i 34 anni la percentuale sale fino al 70%. Questa dipendenza dai social per l’aggiornamento quotidiano ha reso cruciale il ruolo della verifica delle fonti, ma la velocità ha spesso la meglio sulla precisione. Ma questa dieta mediale ha contribuito alla proliferazione di informazioni non verificate, anche tra chi le notizie le produce.
Un caso emblematico è stato quello del famoso tweet su una presunta esplosione al Pentagono nel 2023: l’immagine, generata da un’intelligenza artificiale, è stata condivisa da numerose fonti, persino da giornalisti e analisti di mercato, causando fluttuazioni nei mercati finanziari prima che fosse smentita.
Un altro caso eclatante riguarda l’incidente con il sottomarino Titan . Diverse testate giornalistiche, tra cui il Daily Mail e il New York Post, hanno ripreso senza verifica un tweet virale che affermava che i passeggeri del sommergibile avessero inviato messaggi prima della loro scomparsa, informazione poi rivelatasi falsa.
In un altro episodio ancora più paradossale, nel 2017 la notizia della morte di Sylvester Stallone è stata ripresa da alcuni media, citando un post virale di Facebook senza alcuna conferma ufficiale. Lo stesso Stallone ha dovuto smentire personalmente la bufala.
Testate giornalistiche che citano altre testate senza verificare la notizia, creando un effetto domino di informazioni errate. Un caso emblematico è quello calo del turismo in Trentino a causa degli orsi. La notizia è stata inizialmente diffusa da alcuni media locali e nazionali, successivamente smentita grazie ai dati ufficiali che attribuivano il leggero decremento a fattori economici e al maltempo.
La circolazione delle fake news è spesso il risultato di quello che Bourdieu definisce “habitus”, ovvero schemi cognitivi e comportamentali interiorizzati che spingono gli individui a interpretare la realtà in base ai contesti sociali in cui sono immersi. Quando una notizia si allinea con le credenze pregresse di un individuo, è più probabile che venga accettata senza verifica critica.
L’ascesa di Trump e il cambio di rotta di Meta
Per contrastare la deriva della diffusione di fake news, Meta aveva implementato un solido sistema di fact-checking , basato sulla collaborazione con organizzazioni indipendenti certificate, che analizzavano i contenuti sospetti e li segnalavano come falsi, parzialmente falsi o fuori contesto. Tuttavia, all’inizio del 2025, la società guidata da Mark Zuckerberg ha deciso di rivoluzionare questo approccio, eliminando il fact-checking di terze parti negli Stati Uniti e introducendo un nuovo sistema chiamato Community Notes . Questa scelta è avvenuta in un contesto politico particolare: il ritorno sulla scena di Donald Trump, favorito per le elezioni presidenziali del 2024, ha riacceso il dibattito sulla libertà di espressione sui social. Il presidente e i suoi sostenitori avevano più volte accusato le piattaforme di censura, e la decisione di Meta sembra rispondere a queste pressioni, cercando di evitare nuove accuse di parzialità politica.
Fino al 2024, Meta si affidava a un network di fact-checker indipendenti accreditati dall’International Fact-Checking Network (IFCN), i quali analizzavano contenuti segnalati dagli utenti o dall’algoritmo. Se un post risultava ingannevole, ne veniva ridotta la visibilità e agli utenti veniva mostrato un avviso con una spiegazione dettagliata. Questo sistema, pur non privo di critiche, aveva permesso di limitare la diffusione virale di fake news su temi sensibili come salute pubblica e cambiamenti climatici.
Con il nuovo anno, però, Meta ha scelto di abbandonare questo modello negli Stati Uniti, sostenendo che il fact-checking tradizionale limitasse la libertà di espressione.
L’ironia della rete e il funzionamento delle Community Notes
Dunque, dopo anni in cui gli algoritmi ne hanno penalizzato la visibilità (ne avevamo già parlato in una puntata precedente), i post a tema politico torneranno a circolare sui social targati Meta. «Adesso – ha spiegato – la gente ne vuole ricevere di più».
E ancora: «Lavoreremo con il presidente Trump per respingere i governi che premono per una censura più forte», riferendosi in particolare all’Europa ma anche all’amministrazione Biden. «Negli ultimi quattro anni, anche il governo statunitense ha fatto pressione per una maggiore censura, e in questo modo ha incoraggiato anche altri governi a farlo. Ma ora abbiamo l’opportunità per ripristinare la libera espressione e non vedo l’ora di coglierla».
In un contesto così teso, la questione della verifica delle informazioni diventa una questione spinosa. Le Community Notes funzionano attraverso un meccanismo di validazione collettiva: gli utenti possono proporre note esplicative sui contenuti, ma solo quelle giudicate utili da una base eterogenea di partecipanti vengono rese visibili.
L’idea alla base è quella di decentralizzare la verifica delle informazioni, affidandola a una sorta di intelligenza collettiva. Tuttavia, questo cambiamento ha sollevato interrogativi sulla sua efficacia nel contrastare la disinformazione organizzata e sulla possibilità che gruppi con agende specifiche possano manipolare il sistema per influenzare la percezione pubblica.
In Europa, dove vigono normative più rigide come il Digital Services Act, Meta ha mantenuto il fact-checking tradizionale, ma non è escluso che in futuro possa adottare anche qui il nuovo approccio basato sulle Community Notes.
Nel frattempo, i social sono stati invasi da post ironici su Zuckerberg, accusandolo di azioni assurde come aver abbandonato un cane nel 2005 o aver rubato la ricetta della Coca-Cola. Queste campagne satiriche dimostrano quanto sia facile influenzare l’opinione pubblica con contenuti virali, rendendo ancora più urgente la necessità di strumenti efficaci per verificare la veridicità delle informazioni online.
7 cose da fare per proteggersi dalle fake news
Secondo l’ultimo Rapporto Censis del 2023 Il 76,5% degli italiani considera le fake news sempre più complesse e difficili da identificare, mentre il 20,2% ammette di non avere le competenze necessarie per individuarle.
1. Verificare la fonte: prima di condividere un contenuto, è essenziale controllare chi lo ha pubblicato e se proviene da un sito affidabile o da un giornale riconosciuto. Diffidare da pagine anonime o da fonti poco conosciute.
2. Confrontare più fonti: un buon metodo per riconoscere una fake news è leggere più articoli sullo stesso tema e confrontare eventuali discrepanze. Se una notizia appare solo su un sito e non viene confermata da altri media autorevoli, potrebbe essere falsa.
3. Fare attenzione ai segnali di manipolazione: titoli sensazionalistici, uso eccessivo di maiuscole, emoticon o toni allarmistici spesso indicano contenuti mirati a suscitare reazioni emotive piuttosto che a informare. Anche la mancanza di fonti o il ricorso a immagini fuori contesto sono segnali d’allarme.
4. Segnalare le fake news : se si individua un contenuto palesemente falso, segnalarlo alla piattaforma può contribuire a limitarne la diffusione. Anche avvisare amici e familiari può essere un modo efficace per contrastare la disinformazione.
5. Creare un alter ego sui social per testare la bolla informativa: seguire pagine con punti di vista opposti al proprio aiuta a capire quali contenuti vengono diffusi in diversi ambienti digitali e a sviluppare un senso critico.
6. Usare strumenti di analisi delle immagini e dei video: piattaforme come InVID o Google Reverse Image Search permettono di verificare se una foto o un video è stato manipolato o decontestualizzato.
7.Seguire fonti affidabili ma con spirito critico: anche i giornali più autorevoli possono sbagliare, quindi è sempre utile mantenere un atteggiamento di sana diffidenza e verificare le informazioni incrociando più fonti.
Ricapitolando, in questo scenario, l’abilità di riconoscere le fake news diventa cruciale, ma è altrettanto importante che tutti noi impariamo a gestire con consapevolezza la nostra influenza nel plasmare l’opinione pubblica. E se tutto il resto fallisce, almeno speriamo che Zuckerberg ci riveli finalmente la ricetta della Coca-Cola.