Oltre la sezione 230: una coppia di esperti di social media descrive come portare trasparenza e responsabilità nel settore

La regolamentazione dei social media – e il futuro della Sezione 230 – sono al primo posto per molti al Congresso. Pavlo Conchar/SOPA Images/LightRocket via Getty Images

Uno dei motivi dichiarati da Elon Musk per l’acquisto di Twitter era utilizzare la piattaforma dei social media per difendere il diritto alla libertà di parola . La capacità di difendere tale diritto, o di abusarne, risiede in uno specifico atto legislativo approvato nel 1996, agli albori dell’era moderna dei social media.

La legislazione, Sezione 230 del Communications Decency Act , offre alle piattaforme di social media alcune protezioni davvero sorprendenti ai sensi della legge americana. La sezione 230 è stata anche chiamata le 26 parole più importanti della tecnologia : “Nessun fornitore o utente di un servizio informatico interattivo deve essere trattato come l’editore o il relatore di qualsiasi informazione fornita da un altro fornitore di contenuti informativi”.

Ma più piattaforme come Twitter mettono alla prova i limiti della loro protezione , più i politici americani su entrambi i lati della navata sono stati motivati ​​a modificare o abrogare la Sezione 230 . In qualità di professore di social media e avvocato di social media con una lunga storia in questo campo, pensiamo che il cambiamento nella Sezione 230 stia arrivando e crediamo che sia atteso da tempo.

Nato dal porno

La sezione 230 ha avuto origine nel tentativo di regolamentare il porno online . Un modo per pensarla è come una sorta di legge sui “graffiti da ristorante”. Se qualcuno disegna graffiti offensivi o espone le informazioni private e la vita segreta di qualcun altro, nel bagno di un ristorante, il proprietario del ristorante non può essere ritenuto responsabile. Nessuna conseguenza per il proprietario. In parole povere, la Sezione 230 estende la stessa mancanza di responsabilità agli Yelp e agli YouTube del mondo.

Ma in un mondo in cui le piattaforme di social media sono in grado di monetizzare e trarre profitto dai graffiti sui loro muri digitali – che contengono non solo pornografia ma anche disinformazione e incitamento all’odio – la posizione assolutista secondo cui hanno una protezione totale e una totale “immunità” legale è insostenibile.

Molto bene è venuto dalla Sezione 230 . Ma la storia dei social media chiarisce anche che è tutt’altro che perfetto nel bilanciare il profitto aziendale con la responsabilità civica.

Eravamo curiosi di sapere come il pensiero attuale negli ambienti legali e nella ricerca digitale potesse fornire un quadro più chiaro su come la Sezione 230 potesse essere realisticamente modificata o sostituita e quali potrebbero essere le conseguenze. Prevediamo tre possibili scenari per modificare la Sezione 230, che chiamiamo trigger di verifica, limiti di responsabilità trasparenti e tribunale di Twitter.

Trigger di verifica

Sosteniamo la libertà di parola e crediamo che tutti debbano avere il diritto di condividere le informazioni. Quando le persone che si oppongono ai vaccini condividono le loro preoccupazioni per il rapido sviluppo di vaccini COVID-19 basati su RNA, ad esempio, aprono uno spazio per conversazioni e dialoghi significativi . Hanno il diritto di condividere tali preoccupazioni e altri hanno il diritto di contrastarle.

Quello che chiamiamo “trigger di verifica” dovrebbe attivarsi quando la piattaforma inizia a monetizzare i contenuti relativi alla disinformazione. La maggior parte delle piattaforme tenta di rilevare la disinformazione e molte etichettano, moderano o rimuovono parte di essa. Ma molti lo monetizzano anche attraverso algoritmi che promuovono contenuti popolari, e spesso estremi o controversi . Quando un’azienda monetizza i contenuti con disinformazione, false affermazioni, estremismo o incitamento all’odio, non è come l’innocente proprietario del muro del bagno. È più come un artista che fotografa i graffiti e poi li vende a una mostra d’arte.

Twitter ha iniziato a vendere segni di spunta di verifica per gli account utente nel novembre 2022. Verificando che un account utente sia una persona o un’azienda reale e addebitandolo, Twitter lo garantisce e monetizza tale connessione . Il raggiungimento di un certo valore in dollari da contenuti discutibili dovrebbe attivare la possibilità di citare in giudizio Twitter o qualsiasi piattaforma. Una volta che una piattaforma inizia a guadagnare denaro da utenti e contenuti, inclusa la verifica, esce dai limiti della Sezione 230 ed entra nella luce brillante della responsabilità e nel mondo delle leggi su illecito civile, diffamazione e diritti alla privacy.

Tappi trasparenti

Le piattaforme di social media attualmente stabiliscono le proprie regole sull’incitamento all’odio e sulla disinformazione. Mantengono inoltre segrete molte informazioni su quanti soldi la piattaforma ricava dai contenuti, come un determinato tweet. Questo rende opaco ciò che non è consentito e ciò che è apprezzato.

Una modifica sensata alla Sezione 230 sarebbe quella di espandere le sue 26 parole per precisare chiaramente cosa ci si aspetta dalle piattaforme di social media. Il linguaggio aggiunto specificherebbe cosa costituisce disinformazione, come devono agire le piattaforme di social media e i limiti su come possono trarne profitto. Riconosciamo che questa definizione non è facile , che è dinamica e che ricercatori e aziende stanno già lottando con essa .

Ma il governo può alzare il livello fissando alcuni standard coerenti. Se un’azienda può dimostrare di aver soddisfatto tali standard, l’importo della sua responsabilità potrebbe essere limitato. Non avrebbe una protezione completa come adesso. Ma avrebbe molta più trasparenza e responsabilità pubblica. Lo chiamiamo “limite di responsabilità trasparente”.

Tribunale di Twitter

La nostra proposta di emendamento finale alla Sezione 230 esiste già in forma rudimentale. Come Facebook e altre piattaforme social, Twitter dispone di pannelli di moderazione dei contenuti che determinano gli standard per gli utenti sulla piattaforma, e quindi gli standard per il pubblico che condivide ed è esposto ai contenuti attraverso la piattaforma. Puoi pensare a questo come a “Twitter court”.

Un’efficace moderazione dei contenuti comporta il difficile equilibrio tra la limitazione dei contenuti dannosi e la preservazione della libertà di parola.

Sebbene la moderazione dei contenuti di Twitter sembri risentire dei cambiamenti e delle riduzioni del personale dell’azienda, riteniamo che i panel siano una buona idea. Ma tenere i pannelli nascosti dietro le porte chiuse delle aziende a scopo di lucro non lo è. Se aziende come Twitter vogliono essere più trasparenti , riteniamo che ciò dovrebbe estendersi anche alle proprie operazioni e deliberazioni interne.

Prevediamo di estendere la giurisdizione del “tribunale di Twitter” ad arbitri neutrali che giudicherebbero reclami che coinvolgono individui, funzionari pubblici, società private e la piattaforma. Piuttosto che andare in tribunale per casi di diffamazione o violazione della privacy, il tribunale di Twitter sarebbe sufficiente in molte condizioni. Ancora una volta, questo è un modo per ritirare alcune delle protezioni assolutiste della Sezione 230 senza rimuoverle del tutto.

Come funzionerebbe – e funzionerebbe?

Dal 2018, le piattaforme dispongono di una protezione limitata ai sensi della Sezione 230 nei casi di traffico sessuale . Una recente proposta accademica suggerisce di estendere queste limitazioni all’incitamento alla violenza, all’incitamento all’odio e alla disinformazione. House Republicans ha anche suggerito una serie di ritagli della Sezione 230 , compresi quelli per contenuti relativi al terrorismo, allo sfruttamento dei minori o al cyberbullismo.

Le nostre tre idee di trigger di verifica, limiti di responsabilità trasparenti e tribunale di Twitter potrebbero essere un punto di partenza facile per iniziare la riforma. Potrebbero essere implementati individualmente, ma avrebbero un’autorità ancora maggiore se fossero implementati insieme. La maggiore chiarezza dei trigger di verifica trasparenti e della responsabilità trasparente aiuterebbe a stabilire standard significativi che bilanciano il vantaggio pubblico con la responsabilità delle imprese in un modo che l’autoregolamentazione non è stata in grado di raggiungere. Il tribunale di Twitter fornirebbe alle persone un’opzione reale per arbitrare piuttosto che guardare semplicemente la disinformazione e l’incitamento all’odio fiorire e le piattaforme ne traggono profitto.

Aggiungere alcune opzioni significative e modifiche alla Sezione 230 sarà difficile perché definire l’incitamento all’odio e la disinformazione nel contesto e stabilire limiti e misure per la monetizzazione del contesto non sarà facile. Ma crediamo che queste definizioni e misure siano realizzabili e utili. Una volta messe in atto, queste strategie promettono di rendere il discorso online più forte e le piattaforme più eque.


Articolo ripubblicato da The Conversation, sotto una licenza Creative Commons, per leggere l’articolo originale clicca qui

%d blogger hanno fatto clic su Mi Piace per questo: