L’intelligenza artificiale prende di mira l'”infodemia” del COVID-19

L’algoritmo segnala i tweet che diffondono informazioni fasulle sui vaccini

Con l’aumento della pandemia di COVID-19, l’Organizzazione Mondiale della Sanità e le Nazioni Unite hanno emesso  un duro avvertimento : una “infodemia” di voci online e notizie false relative al COVID-19 stava ostacolando gli sforzi per la salute pubblica e causando morti inutili. “La disinformazione costa vite”, hanno avvertito le organizzazioni. “Senza la fiducia appropriata e le informazioni corrette … il virus continuerà a prosperare”.

Nel tentativo di risolvere questo problema, i ricercatori dello Stevens Institute of Technology stanno sviluppando una soluzione scalabile: uno strumento di intelligenza artificiale in grado di rilevare “notizie false” relative a COVID-19 e segnalare automaticamente notizie e post sui social media fuorvianti. “Durante la pandemia, le cose sono diventate incredibilmente polarizzate”, ha spiegato  KP Subbalakshmi , esperto di intelligenza artificiale presso lo  Stevens Institute for Artificial Intelligence  e professore di  ingegneria elettrica e informatica . “Abbiamo urgente bisogno di nuovi strumenti per aiutare le persone a trovare informazioni di cui possono fidarsi”.

Per sviluppare un algoritmo in grado di rilevare la disinformazione sul COVID-19, il Dr. Subbalakshmi ha prima lavorato con gli studenti laureati di Stevens Mingxuan Chen e Xingqiao Chu per raccogliere circa 2.600 articoli di notizie sui vaccini COVID-19, tratti da 80 diversi editori nel corso di 15 mesi. Il team ha quindi incrociato gli articoli con siti Web di valutazione dei media affidabili e ha etichettato ogni articolo come credibile o inaffidabile.

Successivamente, il team ha raccolto oltre 24.000 post su Twitter che menzionavano i rapporti di notizie indicizzati e ha sviluppato un algoritmo di “rilevamento della posizione” in grado di determinare se un tweet era di supporto o disprezzo dell’articolo in questione. “In passato, i ricercatori presumevano che se twitti su un articolo di notizie, allora sei d’accordo con la sua posizione. Ma non è necessariamente così: potresti dire ‘Riesci a credere a queste sciocchezze!?’” Ha detto il dott. Subbalakshmi. “L’utilizzo del rilevamento della posizione ci offre una prospettiva molto più ricca e ci aiuta a rilevare le notizie false in modo molto più efficace”.

Utilizzando i loro set di dati etichettati, il team di Stevens ha addestrato e testato una nuova architettura di intelligenza artificiale progettata per rilevare sottili segnali linguistici che distinguono i rapporti reali dalle notizie false. Questo è un approccio potente perché non richiede al sistema di intelligenza artificiale di controllare il contenuto effettivo di un testo o di tenere traccia dell’evoluzione dei messaggi di salute pubblica; invece, l’algoritmo rileva impronte stilistiche che corrispondono a testi attendibili o non attendibili.

“È possibile prendere qualsiasi frase scritta e trasformarla in un punto dati – un vettore nello spazio N-dimensionale – che rappresenta l’uso del linguaggio da parte dell’autore”, ha spiegato il dott. Subbalakshmi. “Il nostro algoritmo esamina quei punti dati per decidere se un articolo ha più o meno probabilità di essere una notizia falsa”.

Un linguaggio più roboante o emotivo, ad esempio, è spesso correlato a affermazioni fasulle, ha spiegato il dott. Subbalakshmi. Altri fattori come il tempo di pubblicazione, la lunghezza di un articolo e persino il numero di autori possono essere utilizzati come da un algoritmo di intelligenza artificiale, consentendogli di determinare l’attendibilità di un articolo. Queste statistiche sono fornite con il loro set di dati appena curato. La loro architettura di base è in grado di rilevare notizie false con una precisione di circa l’88%, significativamente migliore rispetto alla maggior parte dei precedenti strumenti di intelligenza artificiale per il rilevamento di notizie false.

È una svolta impressionante, soprattutto utilizzando i dati raccolti e analizzati quasi in tempo reale, ha affermato il dott. Subbalakshmi. Tuttavia, è necessario molto più lavoro per creare strumenti sufficientemente potenti e rigorosi da essere implementati nel mondo reale. “Abbiamo creato un algoritmo molto accurato per rilevare la disinformazione”, ha affermato il dott. Subbalakshmi. “Ma il nostro vero contributo in questo lavoro è il dataset stesso. Speriamo che altri ricercatori lo portino avanti e lo usino per aiutarli a comprendere meglio le notizie false”.

Un’area chiave per ulteriori ricerche: utilizzare immagini e video incorporati negli articoli di notizie indicizzati e nei post sui social media per aumentare il rilevamento delle notizie false. “Finora, ci siamo concentrati sul testo”, ha detto il dottor Subbalakshmi. “Ma le notizie e i tweet contengono tutti i tipi di media e dobbiamo digerire tutto questo per capire cosa è falso e cosa no”.

Lavorare con testi brevi come i post sui social media rappresenta una sfida, ma il team del Dr. Subbalakshmi ha già sviluppato strumenti di intelligenza artificiale in grado di identificare tweet ingannevoli e tweet che sputano notizie false e teorie del complotto. Riunire gli algoritmi di rilevamento dei bot e l’analisi linguistica potrebbe consentire la creazione di strumenti di intelligenza artificiale più potenti e scalabili, ha affermato il dott. Subbalakshmi.

Con il Surgeon General che ora  chiede lo sviluppo di strumenti di intelligenza artificiale  per aiutare a reprimere la disinformazione COVID-19, tali soluzioni sono urgentemente necessarie. Tuttavia, ha avvertito il dottor Subbalakshmi, c’è ancora molta strada da fare. Le notizie false sono insidiose, ha spiegato, e le persone e i gruppi che diffondono false voci online stanno lavorando duramente per evitare il rilevamento e sviluppare nuovi strumenti.

“Ogni volta che facciamo un passo avanti, i cattivi attori sono in grado di imparare dai nostri metodi e costruire qualcosa di ancora più sofisticato”, ha detto. “È una battaglia continua, il trucco è stare solo qualche passo avanti”.

%d blogger hanno fatto clic su Mi Piace per questo: