L’evidenza è che una pretesa “verità scientifica ” è sempre più posta al di sopra del “sano dibattito scientifico”, ma questa è la cosa peggiore che può succedere alla scienza…
La limitazione di rappresentare una pluralità di opinioni su eventi importanti che ci riguardano tutti, come la crisi pandemica, ha colpito abbondantemente i canali televisivi generalisti e le testate giornalistiche, ma anche le piattaforme social.
La censura e i Fact-checking sui social fanno parte di una lotta ideologica o perseguono la correttezza scientifica?
Per rispondere a questa domanda, è interessante sapere che un recente articolo- pubblicato sul British Medical Journal dalla giornalista Laurie Clarke – ha evidenziato il fatto che Facebook ha già rimosso almeno 16 milioni di contenuti dalla sua piattaforma e 167 milioni di avvisi sono stati indirizzati agli utenti avvisandoli di violazioni.
Da parte sua, YouTube ha rimosso quasi un milione di video che si dice siano collegati a “informazioni mediche pericolose o fuorvianti sul covid-19. Ovviamente, questo è come aver distrutto intere biblioteche…
Comunque, l’articolo di Clarke , in merito agli articoli che sono stati cancellati o taggati, dice:
“Anche se è probabile che questi contenuti siano intenzionalmente non esatti o scorretti, la pandemia è disseminata di esempi di opinioni scientifiche anch’esse cadute nelle maglie della censura.”
Questo è stato chiaro nel “dibattito sulle origini del COVID in laboratorio”. All’inizio della pandemia, era nemmeno permesso di menzionare che il COVID potesse provenire da un laboratorio e chi lo faceva era bollato come un diffusore di fake news. Inoltre, chi promuoveva video sull’argomento su Youtube era demonetizzato e poi cancellato definitivamente se persisteva.
E’ evidente che ora all’improvviso – dopo che Biden ha aperto a questa ipotesi di creazione del virus in laboratorio- tutte queste piattaforme si sono riposizionate e ritengono che quella della fuga dal laboratorio sia una possibilità legittima.
Il problema è però che questa giravolta non ha mutato la politica di restrizione in atto.
Laurie Clarke sottolinea nel suo articolo, che piattaforme , come Facebook, Twitter, Instagram e YouTube, non ritengono che la questione più importante che devono preservare , sia la verità scientifica.
Laurie Clarke ritiene che la censura sia applicata non perchè le piattaforme etichettino il contenuto scientifico come disinformazione, ma perchè si preoccupano di come gli utenti possano reagire incorporando questi contenuti .
Quindi si tratta di un uso della scienza che deve sottostare ad una certa narrativa precostituita, in questo contesto a decidere la censura non è l’esame obiettivo dei contenuti e delle fonti, ma semplicemente la politicizzazione della scienza. Questo è esattamente ciò che è accaduto durante questa pandemia.
In proposito Kamran Abbas, caporedattore del British Medical Journal considera:
Politici e i governi stanno sopprimendo la scienza. Lo fanno nell’interesse pubblico, dicono, per accelerare la disponibilità di diagnosi e trattamenti. Lo fanno per supportare l’innovazione, per portare i prodotti sul mercato a una velocità senza precedenti. Entrambi questi motivi sono in parte plausibili; i più grandi inganni si fondano su un granello di verità. Ma il comportamento di fondo è preoccupante.
La scienza viene soppressa per guadagno politico e finanziario. Il Covid-19 ha scatenato la corruzione statale su larga scala ed è dannoso per la salute pubblica. 1 I politici e l’industria sono responsabili di questa appropriazione indebita opportunistica. Così anche gli scienziati e gli esperti di salute. La pandemia ha rivelato come il complesso medico-politico possa essere manipolato in caso di emergenza, un momento in cui è ancora più importante salvaguardare la scienza. ( fonte)
In questo contesto di informazione fortemente ‘indirizzata’ in una sola direzione precostituita sono da ricordare i giornalisti incaricati a decidere quali siano le fake news e quali invece le notizie veritiere.
E’ importante sottolineare che questi “fact checker” indipendenti lavorano con Facebook, che a sua volta collabora con il governo.
Cosa comporta questo è abbastanza evidente e celo conferma l’informatore della NSA Edward Snowden , che ha affermato quanto segue:
In segreto, tutte queste società avevano concordato di lavorare con il governo degli Stati Uniti ben oltre ciò che la legge richiedeva loro, e ciò che stiamo vedendo con questa nuova ondata di censura è davvero una nuova direzione nella stessa dinamica. Queste società non sono obbligate per legge a fare quello che fanno attualmente, ma seguono con zelo gli orientamenti governativi, in molti casi per aumentare la profondità del loro rapporto (con il governo) …. così seguendo la narrativa che alla fine sta dominando lo spazio del dibattito e dell’informazione nella società globale in modi diversi… Stanno cercando di far cambiare il comportamento delle persone.
Quello a cui stiamo assistendo è una crescente tendenza a mettere a tacere i giornalisti che dicono cose che non rappresentano l’opinione comune.
Questo ci fa domandare se questo “controllo dei fatti” riguardi davvero il controllo dei fatti? O ci sia dell’altro che lo determina.
Di seguito è riportato un altro estratto dall’articolo di Clarke che illustra come funziona il fact-checking.
Come funziona il ‘controllo dei fatti’?
L’ultimo decennio è stato caratterizzato da una battaglia tra utenti che diffondono disinformazione (intenzionalmente progettata per fuorviare) o condividono involontariamente informazioni false (che gli utenti non si rendono conto che sono false) e le piattaforme di social media che si trovano incaricate di controllarle, indipendentemente dal fatto che questo piaccia o no
Quando il British Medical Journal ha intervistato Facebook, Twitter e YouTube (che è di proprietà di Google), tutti hanno evidenziato i loro sforzi per rimuovere contenuti potenzialmente pericolosi e indirizzare gli utenti a fonti autorevoli di informazioni su covid-19 e vaccini, tra cui l’Organizzazione mondiale della sanità e gli Stati Uniti, nonché i Centri per il controllo e la prevenzione delle malattie. Sebbene le loro politiche di moderazione differiscano leggermente, le piattaforme generalmente rimuovono o riducono la circolazione di contenuti che contestano le informazioni fornite dalle autorità sanitarie come l’OMS e i CDC o diffondono false indicazioni sulla salute considerate dannose, inclusa la disinformazione sui pericoli da vaccino.
Ma la pandemia ha dato origine a un mutevole mosaico di criteri che queste aziende utilizzano per definire i confini della disinformazione. Ciò ha dato luogo a sorprendenti capovolgimenti: all’inizio della pandemia, i messaggi che affermavano che le mascherine stavano aiutando a prevenire la diffusione del covid-19 erano etichettati come “falsi”; oggi è il contrario, e ciò riflette l’evoluzione del dibattito accademico e delle raccomandazioni ufficiali.
Twitter gestisce internamente il fact-checking. Ma Facebook e YouTube si affidano a partnership con fact-checker di terze parti, riuniti sotto l’egida dell’International Fact-Checking Network – un organismo apartitico che certifica altri fact-checker, guidato dal Poynter Institute for Media Studies, un scuola di giornalismo senza scopo di lucro che si trova a St Petersburg, Florida.
I principali donatori di Poynter includono il Charles Koch Institute (un’organizzazione di ricerca sulle politiche pubbliche), il National Endowment for Democracy (un’agenzia governativa degli Stati Uniti) e la Omidyar Network (una “società di investimento filantropica”), nonché Google e Facebook. Poynter possiede anche il quotidiano Tampa Bay Times e il rinomato fact-checker PolitiFact.
Per i contenuti scientifici e medici, l’International Fact-Checking Network utilizza organizzazioni poco conosciute come SciCheck, Metafact e Science Feedback. Health Feedback, una sussidiaria di Science Feedback, seleziona gli scienziati per esprimere il proprio verdetto. Usando questo metodo, è stato definito “fuorviante” un articolo di opinione del Wall Street Journal che riteneva che gli Stati Uniti avrebbero avuto l’immunità collettiva entro aprile 2021, scritto da Marty Makary, professore di politica e gestione della salute presso la Johns Hopkins University di Baltimora, nel Maryland. Ciò ha spinto il giornale a pubblicare una confutazione intitolata “Fact check sui fact check di Facebook”.
Un portavoce di Science Feedback dice al BMJ che, per verificare le affermazioni, seleziona gli scienziati sulla base della “loro esperienza nell’area dell’affermazione/articolo”. Spiegano che “Gli scrittori di feedback scientifici in genere iniziano ricercando la letteratura accademica pertinente e identificano gli scienziati che hanno scritto articoli su argomenti correlati o che hanno l’esperienza per rivedere i contenuti”.
L’organizzazione chiede quindi agli scienziati selezionati di valutare o raccogliere direttamente le affermazioni che hanno fatto nei media o sui social media per emettere un verdetto. Nel caso dell’articolo di Makary, ha identificato 20 scienziati rilevanti e ha ricevuto commenti da tre di loro.
“Segui la scienza”
La natura controversa di queste decisioni è in parte dovuta al modo in cui le piattaforme di social media definiscono i concetti sfuggenti di disinformazione. Questa decisione si basa sull’idea di un consenso scientifico. Ma alcuni scienziati affermano che soffoca opinioni eterogenee, rafforzando l’idea sbagliata che la scienza sia un monolite.
Questa idea è riassunta da quello che è diventato uno slogan pandemico: “Segui la scienza”. David Spiegelhalter, presidente del Winton Center for Risk and Evidence Communication presso l’Università di Cambridge, definisce lo slogan “assolutamente orribile”, dicendo che dietro le porte chiuse gli scienziati passano il loro tempo a discutere e ad essere in profondo disaccordo su alcune cose piuttosto basilari.
Dice: “La scienza non è qui per dirti cosa fare; non dovrebbe essere. La vedo molto più come una persona che cammina accanto a te borbottando, commentando ciò che vede e dando suggerimenti incerti su ciò che potrebbe accadere se prendi un determinato percorso, ma lei non lo fa.
Lo stesso termine “disinformazione” potrebbe aiutare ad appiattire il dibattito scientifico. Martin Kulldorff, professore di medicina presso la Harvard Medical School di Boston, Massachusetts, è stato criticato per la sua interpretazione del contenimento, che si avvicina alla strategia più flessibile della sua nativa Svezia. Dice che gli scienziati che esprimono opinioni non ortodosse durante la pandemia temono di dover affrontare “varie forme di calunnia o censura […] dicono alcune cose ma non altre, perché pensano che sarà censurato da Twitter, YouTube o Facebook”. Questa preoccupazione è aggravata dai timori che possa influire sui finanziamenti delle sovvenzioni e sulla capacità di pubblicare articoli scientifici, ha detto a BMJ.
L’idea bivalente che le affermazioni scientifiche possano essere corrette o errate ha alimentato la divisione che ha caratterizzato la pandemia. Samantha Vanderslott, sociologa della salute dell’Università di Oxford, nel Regno Unito, ha dichiarato a Nature: “Esporre storie false può migliorare il tuo profilo. Nello stesso articolo, Giovanni Zagni, direttore del sito italiano di verifica dei fatti Facta, sottolinea che “si può costruire una carriera” diventando “una voce rispettata che combatte contro le cattive notizie”.
Van der Linden paragona questa situazione al modo in cui Donald Trump ha usato il termine “notizie false” per mettere a tacere i suoi critici. E aggiunge: “Penso che ritroviamo un po’ la stessa cosa con il termine “disinformazione”, quando ci sono dati scientifici con cui non siamo d’accordo e li qualifichiamo come disinformazione. “
Il sito Web di Health Feedback afferma che non selezionerà gli scienziati per verificare le affermazioni se hanno minato la loro credibilità “diffondendo disinformazione, intenzionalmente o meno”. In pratica, ciò potrebbe creare una situazione kafkiana in cui gli scienziati non potrebbero esprimere la loro opinione come parte del processo di verifica dei fatti se esprimessero un’opinione che Facebook ha definito disinformazione. L’effetto della camera di eco è potenziato dal fatto che Health Feedback a volte verifica le affermazioni guardando ciò che gli scienziati hanno detto su Twitter o nei media.
La “verità” scientifica
Secondo Van der Linden, è importante che le persone capiscano che nella scienza “c’è incertezza, c’è dibattito, si tratta di accumulare conoscenze nel tempo e di rivedere le nostre opinioni man mano che andiamo avanti”. Un sano dibattito separa il grano dalla pula. Jevin West, professore associato presso la University of Washington School of Information di Seattle, afferma che le piattaforme di social media dovrebbero quindi essere “estremamente attente quando si tratta di dibattiti che coinvolgono la scienza”. Spiega: “L’istituzione della scienza ha sviluppato queste norme e comportamenti in modo che si autocorreggano. Quindi, per [piattaforme di social media] per interferire in questa conversazione, penso che sia problematico. “
Gli esperti interpellati dal BMJ hanno sottolineato la quasi impossibilità di distinguere tra un parere scientifico minoritario e un parere oggettivamente scorretto (disinformazione). Spiegelhalter sostiene che ciò costituirebbe un difficile “giudizio legalistico su quale sarebbe un’opinione scientifica ragionevole…”. Ho i miei criteri che uso per decidere se penso che qualcosa sia fuorviante, ma trovo molto difficile da codificare”.
Altri scienziati temono che se questo approccio alla disinformazione scientifica sopravvivrà alla pandemia, il dibattito scientifico sarà pericolosamente soggetto a imperativi commerciali. Vinay Prasad, professore associato presso l’Università della California a San Francisco, ha affermato su MedPage Today: “Il rischio è che la miriade di attori della biomedicina, siano essi grandi o piccole aziende biofarmaceutiche o dispositivi [medici], diano voce alle loro preoccupazioni sui social media e sulle notizie. Su un argomento come i farmaci antitumorali, una piccola manciata di persone che criticano l’approvazione di un nuovo farmaco può essere superata esponenzialmente dai principali opinion leader che lavorano con l’azienda.
Le società di social media stanno ancora sperimentando una nuova serie di misure introdotte dallo scorso anno e potrebbero adattare un nuovo approccio. Secondo Van der Linden, le sue discussioni con Facebook si sono concentrate su come la piattaforma potrebbe aiutare le persone ad apprezzare le notizie scientifiche, “per indirizzare le persone a contenuti che le istruiscono sul processo scientifico. , piuttosto che etichettare qualcosa come vero o falso”.
Questo dibattito si svolge come parte di una più ampia lotta ideologica, in cui l’ideale della “verità” è sempre più posto al di sopra del “sano dibattito”. Kulldorff dice: “Eliminare le cose in generale, penso che sia una cattiva idea. Perché anche se qualcosa non va, se la elimini, non c’è più la possibilità di discuterne. Ad esempio, mentre favorisce la vaccinazione in generale, le persone con paure o dubbi sui vaccini utilizzati non dovrebbero essere messe a tacere negli spazi online, afferma. “Se non abbiamo un dibattito aperto all’interno della scienza, allora questo avrà enormi conseguenze per la scienza e la società. “
Alcuni temono che questo approccio finirà per minare la fiducia nella salute pubblica. La fiducia nel governo e nei media sta diminuendo negli Stati Uniti , ha affermato West. Che spiega: “La scienza è ancora una delle istituzioni più affidabili, ma se inizi a marcare e chiudere il dibattito all’interno della scienza, per me è persino peggio che pubblicare singoli articoli [opinabili o meno].
Nota a margine: naturalmente non sono solo organizzazioni così complesse – come indicate nell’articolo – a decidere sulla genuinità dei fatti. Molto più spesso sono semplicemente algoritmi: così facendo, i social assicurano un controllo a tappeto spesso senza una coerenza logica ed una selezione intelligente rispetto a quello che dicono di proporsi.
@vietatoparlare