YouTube ha maggiori probabilità di indirizzare video di frodi elettorali a utenti già scettici sulla legittimità delle elezioni del 2020
Un nuovo studio mostra come gli algoritmi del sito perpetuano le percezioni errate esistenti
YouTube era più propenso a consigliare video sulla frode elettorale agli utenti che erano già scettici sulla legittimità delle elezioni presidenziali statunitensi del 2020, mostra un nuovo studio che esamina l’impatto degli algoritmi del sito.
I risultati della ricerca, pubblicata sul Journal of Online Trust and Safety , hanno mostrato che i più scettici sulla legittimità delle elezioni sono stati mostrati tre volte più video relativi alle frodi elettorali rispetto ai partecipanti meno scettici, circa 8 raccomandazioni aggiuntive su circa 400 video suggeriti a ciascun partecipante allo studio.
Sebbene la prevalenza complessiva di questi tipi di video fosse bassa, i risultati espongono le conseguenze di un sistema di raccomandazioni che fornisce agli utenti i contenuti desiderati. Per coloro che sono più preoccupati per possibili frodi elettorali, mostrare loro contenuti correlati ha fornito un meccanismo attraverso il quale disinformazione, disinformazione e cospirazioni possono trovare la loro strada verso coloro che hanno maggiori probabilità di crederci, osservano gli autori dello studio. È importante sottolineare che questi modelli riflettono l’influenza indipendente dell’algoritmo su ciò che viene mostrato agli utenti reali durante l’utilizzo della piattaforma.
“I nostri risultati svelano le conseguenze dannose degli algoritmi di raccomandazione e mettono in dubbio l’idea che gli ambienti informativi online siano determinati esclusivamente dalla scelta dell’utente”, afferma James Bisbee, che ha condotto lo studio come ricercatore post-dottorato presso il Center for Social Media and Politics della New York University (CSMaP).
Quasi due anni dopo le elezioni presidenziali del 2020, un gran numero di americani, in particolare repubblicani, non crede nella legittimità del risultato.
“Circa il 70% dei repubblicani non vede Biden come il legittimo vincitore”, nonostante “i molteplici riconteggi e audit che hanno confermato la vittoria di Joe Biden”, ha scritto PolitiFact del Poynter Institute all’inizio di quest’anno.
Sebbene sia noto che le piattaforme di social media, come YouTube, dirigono i contenuti agli utenti in base alle loro preferenze di ricerca, le conseguenze di questa dinamica potrebbero non essere pienamente realizzate.
Nello studio CSMaP, i ricercatori hanno campionato più di 300 americani con account YouTube a novembre e dicembre del 2020. Ai soggetti è stato chiesto quanto fossero preoccupati per una serie di aspetti della frode elettorale, tra cui il conteggio di schede fraudolente, lo scarto di schede valide, governi stranieri che interferiscono e cittadini non statunitensi che votano, tra le altre domande.
A questi partecipanti è stato quindi chiesto di installare un’estensione del browser che registrasse l’elenco dei consigli che erano stati mostrati. Ai soggetti è stato quindi chiesto di fare clic su un video YouTube assegnato in modo casuale (il video “seme”), quindi di fare clic su uno dei consigli che sono stati mostrati secondo una “regola di attraversamento” assegnata in modo casuale. Ad esempio, gli utenti assegnati alla “seconda regola di attraversamento” dovrebbero fare clic sempre sul secondo video nell’elenco di consigli mostrato, indipendentemente dal suo contenuto. Limitando il comportamento degli utenti in questi modi, i ricercatori sono stati in grado di isolare l’influenza dell’algoritmo di raccomandazione su ciò che gli utenti reali venivano suggeriti in tempo reale.
I soggetti hanno quindi proceduto attraverso una sequenza di video consigliati da YouTube, consentendo ai ricercatori di osservare ciò che l’algoritmo di YouTube suggeriva ai suoi utenti. Bisbee e i suoi colleghi hanno quindi confrontato il numero di video sulla frode elettorale nelle elezioni presidenziali statunitensi del 2020 consigliati ai partecipanti più scettici sulla legittimità delle elezioni con quelli consigliati ai partecipanti meno scettici. Questi risultati hanno mostrato che agli scettici elettorali è stata consigliata una media di otto video aggiuntivisu possibili frodi nelle elezioni statunitensi del 2020, rispetto ai partecipanti non scettici (12 contro 4).
“Molti credono che gli algoritmi di raccomandazione automatizzati abbiano poca influenza sulle ‘camere d’eco’ online in cui gli utenti vedono solo contenuti che riaffermano le loro opinioni preesistenti”, osserva Bisbee, ora assistente professore alla Vanderbilt University. “Il nostro studio, tuttavia, suggerisce che l’algoritmo di raccomandazione di YouTube è stato in grado di determinare quali utenti erano più propensi a essere preoccupati per la frode alle elezioni presidenziali statunitensi del 2020 e quindi ha suggerito a questi utenti fino a tre volte più video sulla frode elettorale rispetto a quelli meno preoccupato per le frodi elettorali. Ciò evidenzia la necessità di ulteriori indagini su come funzionano gli algoritmi di raccomandazione opachi problema per problema”.
Gli altri autori del documento erano Joshua A. Tucker e Jonathan Nagler, professori del Dipartimento di politica della New York University, e Richard Bonneau, professore presso il Dipartimento di Biologia e Courant Institute of Mathematical Sciences della New York University, nonché Megan A. Brown, l’ingegnere ricercatore senior al CSMaP e Angela Lai, una studentessa di dottorato della New York University. Tucker e Nagler sono condirettori di CSMaP.

Leave a Reply