YouTube ha ufficialmente dichiarato guerra ai contenuti antivax. A dirlo è lo stesso impero dei video in rete che, proprio nei giorni scorsi, ha fatto una delle scelte più importanti di sempre: la società demonetizzerà tutti i canali che si fanno paladini della battaglia contro i vaccini. Perché si tratta di una scelta “importante”? Semplice: YouTube deve la sua fortuna proprio alla mole di video caricati, al numero di visualizzazioni complessive ma soprattutto al tempo trascorso da ogni utente su un singolo video. Partendo da questi presupposti, è facile capire come i video antivax (così come ogni altra tipologia di video complottista) rappresentino una vera e propria miniera d’oro per il portale: durano tantissimo (anche ore) e rappresentano l’unica forma di “condivisione di informazioni” di massa tra no vax. Demonetizzare questa tipologia di video, dunque, per YouTube significa perdere un’importante quantità di introiti, che però vengono compensati da un guadagno in termini di immagine, visto che il portale può così scrollarsi di dosso quella sua caratteristica “catch all” (piglia tutto), dimostrando di essere capace di tener conto anche di qualità e valori senza però diventare un qualcosa di esclusivo o inaccessibile.

Insomma, YouTube mette l’etica sopra i guadagni, come è giusto che sia. Eppure, dietro questa scelta che sembra essere unicamente dettata dalla volontà di arginare un fenomeno alla deriva, c’è anche un investimento importante: YouTube deve mantenere una propria credibilità nei confronti degli inserzionisti, quelli che alla fine ci mettono i soldi. Entrando nel dettaglio, YouTube ha dichiarato che non solo demonetizzerà i canali che promuovono punti di vista antivax, ma implementerà il portale con un nuovo pannello informativo con apposito link alla voce “Vaccini” su Wikipedia prima di ogni video antivax. Questo tipo di link è stato già sperimentato in passato proprio da YouTube, proprio per combattere la disinformazione sui vaccini contro Morbillo, Parotite e Rosolia. Eppure, vista la natura “catch all” di YouTube, è impossibile controllare ogni singolo contenuto caricato. Ed ecco che allora arriva il pugno duro: niente soldi a chi carica video antivax, a prescindere dalle visualizzazioni.

Ma oltre alla componente etica e quella dell’investimento, la scelta è stata presa anche per un terzo motivo, una grossa carenza che doveva essere sanata e per la quale c’è stato bisogno di chiedere scusa. Infatti a seguito di un reportage di BuzzFeed del 20 febbraio scorso, YouTube ha rivelato che l’algoritmo del portale possiede delle “falle” che si sono rivelate tali proprio in merito ai video antivax. E in seguito a tali dichiarazioni, diversi importanti inserzionisti, tra cui Nestlé e Epic Games, hanno persino dichiarato che avrebbero messo in pausa le inserzioni pubblicitarie. La questione è la seguente: se si cercano video inerenti alla sicurezza sui vaccini, YouTube risponde tempestivamente proponendo un contenuto la cui fonte è al 100% accreditata e legittima. Le fonti, in questo caso, sono ospedali, medici, professori, scienziati e quant’altro. Il problema, però, è legato ai cosiddetti UpNext, o meglio, i contenuti simili a quello appena visualizzato che il recommender system propone all’utente come immediatamente successivi. Questo sistema di raccomandazione non è però basato su criteri di correttezza e affidabilità della fonte, ma è costruito sul profilo e la storia delle interazioni che il soggetto ha avuto nel sito (ricerche, likes, visualizzazioni, acquisti, commenti e chi più ne ha più ne metta). Quindi la “falla” corrisponde in realtà ad un perfetto funzionamento del sistema, che continua a proporre all’utente contenuti vicini ai suoi interessi. Il problema, in questo caso, è che se un utente che ha visto ore e ore di video novax cerca su YouTube un video sull’affidabilità dei vaccini, subito dopo il video scientificamente corretto che YouTube propone come primo, si troverà sulla “lista delle raccomandazioni” una serie di video antivax che vanno a smontare (almeno per la categoria di utenti in questione) quanto visionato poco prima. Insomma, storicamente parlando, il sistema ha riconosciuto le teorie del complotto e le notizie sensazionali come grandi attrattori per una grande fetta della popolazione e gliel’ha servita nel migliore dei modi, aumentandone l’appetibilità e la risonanza. L’errore, dunque, è stato degli esseri umani a capo del progetto, che hanno preferito non intervenire subito, aumentando la diffusione di notizie chiaramente false. Proprio per fare ammenda a questo peccato originale, quello degli UpNext, YouTube ha dichiarato che apporterà a breve importanti modifiche per impedire la diffusione di video no-vax, soprattutto dopo lo scoppio di casi di Morbillo negli Usa e in tutto il mondo, che hanno spinto ad indagare sul ruolo dei social media e delle aziende tecnologiche (da Facebook a Google) nella diffusione dell’informazione.

Lascia una risposta