Ecco il report sui post cancellati da Meta & Co: migliaia tolti senza alcuna spiegazione

Da ormai due anni sono presenti su “disinfocode.eu” molteplici rapporti di varie aziende nel mondo sulla cosiddetta “disinformazione”.
Cos’è disinfocode.eu? Un centro per la trasparenza che pubblica online innumerevoli dati raccolti sui social e consegnati dai firmatari.
Questo in accordo con il Codice di condotta dell’UE sulla disinformazione. Dal 2018 la Commissione europea ha avviato un processo di autoregolamentazione del settore delle aziende tecnologiche, che partecipano stilando report informativi sulle azioni che vengono implementate sui social per fermare la “disinformazione”. Il processo è poi stato integrato con le altre leggi sulle disinformazione digitale promulgate in Europa nel corso degli anni, come il Digital Services Act.

Quali sono le aziende iscritte? Ce ne sono molte, ma le più rilevanti sono sicuramente: Meta, Google, TikTok, Microsoft. Presenziano poi le varie agenzie di “fact checking”, anche italiane. Così risulta dal sito del centro. Anche Twitter aveva aderito, almeno fino a quando Elon Musk non ha deciso di lasciare il Codice di condotta nel maggio 2023.

Negli ultimi rapporti datati 25 marzo 2025 emergono dati interessanti. Dal luglio a dicembre 2024, i media in questione dicono che nell’UE sono stati controllati, ed eventualmente rimossi, migliaia e migliaia di contenuti (tra cui post e pubblicità) sui social a causa di “falsità” verificate dai fact checkers. Le società di social media parlano particolarmente di disinformazione in materia di sanità, elezioni (soprattutto quelle in Romania e in Francia), cambiamenti climatici e altri temi considerati consolidati dalle autorità e comunità istituzionali.

Il rapporto di Facebook

Meta riporta che – prima del sonoro dietrofront di Mark Zuckerberg del 7 gennaio scorso, quando ha annunciato la fine dei fact checkers sulle sue piattaforme – “oltre 150.000 articoli di fact-checking distinti su Facebook nell’UE sono stati utilizzati per etichettare e ridurre la viralità di oltre 27 milioni di contenuti nell’UE”. In una nota a margine però Meta annuncia di star considerando una delle misure già riferite da Zuckerberg: le Community Notes al posto dei fact checkers.

Nella sezione “integrità dei servizi”, quindi materia di account falsi o non autentici, il documento spiega che in Moldavia è stata effettuata la rimozione di 7 account, 23 pagine e un gruppo. “Hanno pubblicato commenti di sostegno sui partiti filo-russi in Moldavia”. In Benin, Facebook scrive di aver rimosso 16 account e 6 pagine: “Questo sforzo ha preso di mira soprattutto la Francia con post in francese su notizie e politica, tra cui critiche al presidente Macron e alla NATO, commenti di sostegno a Marine Le Pen e al suo partito e inviti a ridurre il sostegno all’Ucraina”.

Con il fine di “responsabilizzare gli utenti”, i fact checkers hanno poi “trattato” in tutta l’UE oltre 27 milioni di contenuti, spiegando le motivazioni delle verifiche solo in 150 mila contenuti. Circa il 47% dei post, spiega il report, non è stato condiviso dopo che all’utente è stato presentato il pop-up che avvertiva del fact checking, spiegando inoltre che quando le agenzie “valutano qualcosa come falso, spostiamo questo contenuto più in basso nel Feed, in modo che meno persone lo vedano”.

1099 contenuti sono stati rimossi da Facebook per aver violato le politiche di disinformazione dannosa per la salute, si scrive facendo riferimento alla politica sulla “disinformazione sui vaccini”.

Tra i Paesi più “controllati” compaiono: Italia, Romania, Francia, Spagna e Germania.

Il rapporto di TikTok

La rendicontazione di TikTok risulta ancora più interessante se letta in relazione all’annullamento della candidatura di Calin Georgescu in Romania per presunte ingerenze russe tramite la propaganda di account falsi sulla piattaforma cinese.

Da luglio al dicembre 2024, TikTok dice di aver rimosso in Romania circa 10.000 annunci politici (totale UE: 36.000), specificando che le impressioni per gli annunci rimossi erano state circa 27 milioni (127 milioni nell’UE).

Per “disinformazione”, il documento intende: “Teorie del complotto che sono infondate e sostengono che certi eventi o situazioni sono portati avanti da gruppi occulti o potenti, come “il governo” o una “società segreta”; Disinformazione sanitaria con danni moderati, come ad esempio una raccomandazione non provata su come trattare una malattia minore; travisare fonti autorevoli, come ad esempio fare riferimento in modo selettivo a determinati dati scientifici per sostenere una conclusione contraria ai risultati dello studio”. In Francia sarebbero stati rimossi “per violazione della politica di disinformazione” 44.000 video; in Germania 50.000; in Italia 21.000 e in Romania 14.000. Sommando tutti i Paesi menzionati dal rapporto, TikTok scrive di aver rimosso nell’UE circa 200.000 video, per un totale di 517 milioni di visualizzazioni.

Dati simili vengono descritti nella sezione “Numero di video rimossi a causa di violazione di norme civiche e Politica di integrità elettorale”, dove i video eliminati sarebbero stati 35.000 (57 milioni di views). I video rimossi “per violazione delle norme sintetiche e i media manipolati”? 50.000, 404 milioni di visualizzazioni.

Per i “tentativi di influenzare l’opinione pubblica sulla guerra in Ucraina” TikTok sarebbe intervenuta per rimuovere 20.000 account.

Alla luce dei dati, il quesito nel caso della disinformazione rimane sempre lo stesso: quali criteri sono stati utilizzati per stabilire la falsità dei fatti?