Big tech e la disinformazione al Congresso USA
Le aziende grandi piattaforme digitali (Facebook, Google, Twitter) sono sotto inchiesta negli Stati Uniti per il loro ruolo monopolistico, declinato secondo le forme assunte da tale fenomeno dalla moderna economia digitale. Il Congresso degli Stati Uniti periodicamente ha chiesto di incontrare i responsabili di big tech per acquisire informazioni sullo stato del mercato e dare avvertimenti sulla deriva monopolistica. L'attività del Congresso si aggiunge alla procedura sulle piattaforme aperta da parte della Federal trade Commission e di numerose procure statali. L'ultima di queste sessioni parlamentari si è tenuta il 25 marzo, con l'audizione di Mark Zuckerberg Chairman di Facebook, Sundar Pichai Chief Executive Officer di Google, e Jack Dorsey Chief Executive Officer di Twitter.
Il presidente della Commissione "Commercio e energia" della Camera dei rappresentanti Frank Pallone jr ha introdotto i lavori riassumendo i motivi della convocazione: "la Camera intende approfondire il ruolo delle grandi piattaforme nella diffusione e amplificazione di disinformazione e contenuti estremisti, nel veicolare falsi contenuti relativi alla pandemia della malattia da coronavirus, e per essere state veicolo di disinformazione politica che sembrava essere intesa a influenzare in modo improprio o minare il risultati di elezioni libere ed eque. Già durante le elezioni di novembre 2016, le piattaforme di social media sono stati sfruttate da governi stranieri per diffondere informazioni che hanno finito col manipolare l'opinione pubblica. Questa tendenza è continuata durante e dopo le elezioni del novembre 2020, spesso fomentata da politici nazionali, con una dilagante disinformazione su inesistenti frodi elettorali, false notizie di macchine per il voto difettose e premature dichiarazioni di vittoria. Inoltre, i dirigenti di Facebook sono stati ripetutamente avvertiti che il contenuto estremista era fiorente sulla loro piattaforma e che gli algoritmi e gli strumenti di raccomandazione di Facebook erano responsabili diretti della formazione di gruppi estremisti e diffusione di contenuti divisivi.
Allo stesso modo, dal 2015, i video degli estremisti sono proliferati su YouTube, e sfruttando l'algoritmo di YouTube hanno guidato gli utenti da contenuti più innocui o alternativi a canali e video più estremi. Twitter è stato criticato per essere stato lento a impedire ai nazionalisti bianchi di organizzarsi, raccogliere fondi, reclutare e diffondere propaganda violenta su Twitter.
Le conseguenze della disinformazione e dei contenuti estremisti su queste piattaforme sono evidenti. Molti esperti concordano sul fatto che la disinformazione su COVID-19 ha notevolmente intensificato una già mortale crisi sanitaria pubblica.
Gli esperti riconoscono anche che la disinformazione sulle elezioni presidenziali del 2020 e il contenuto estremista hanno ulteriormente diviso la nazione e provocato un'insurrezione.
Tutte e tre le piattaforme hanno una politica contro le informazioni certamente false ...Nel settembre 2020, Facebook ha adottato nuove politiche relative alle elezioni di novembre come il divieto di pubblicità politica e l'etichettatura di accuse di frode elettorale. Dopo il 6 gennaio 2021 e l'assalto al Campidoglio degli Stati Uniti, Facebook ha iniziato a rimuovere la disinformazione che avrebbe potuto portare a ulteriore violenza. Il mese scorso, Facebook ha aggiornato le sue politiche sulla disinformazione COVID-19, con misure che vanno dalla rimozione iniziale di informazioni false "che potrebbero portare a danni fisici imminenti" al divieto della disinformazione su COVID-19 e minacciando di bandire utenti, gruppi o pagine scoperti a diffondere ripetutamente disinformazione.
Nell'ottobre 2020, YouTube ha annunciato che avrebbe rimosso i video contenenti informazioni errate sui vaccini COVID-19, espandendo il divieto di disinformazione COVID-19 in contraddizione con le indicazioni delle autorità sanitarie locali o l'Organizzazione mondiale della sanità. A dicembre 2020,
YouTube ha annunciato che avrebbe iniziato a rimuovere i contenuti che si presumeva oggetto di frode, ma tale misura non si applicherebbe ai video caricati prima dell'annuncio.
Dopo l'assalto al Campidoglio degli Stati Uniti, YouTube ha annunciato che avrebbe sospeso gli account che promuovevano video di false accuse sulle elezioni presidenziali del 2020. Prima delle elezioni del novembre 2020, Twitter ha ampliato l'uso del suo sistema di segnalazione a mezzo di etichette per limitare la diffusione della disinformazione elettorale. Nel dicembre 2020, Twitter lo ha annunciato una analoga politica di etichettatura sulla disinformazione sui vaccini COVID-19.
Queste piattaforme spesso aumentano i loro sforzi contro la disinformazione e i contenuti estremisti in risposta alle pressioni sociali e politiche. Nonostante questi sforzi, recenti studi hanno evidenziato che la disinformazione COVID-19 e i contenuti estremisti continuano a prosperare su queste piattaforme, ed è pertanto compito della Commissione appurare lo stato dei fatti."
La commissione dopo gli interventi dei senatori Doyle e Schakowsky, che ha dichiarato "l'autoregolamentazione delle piattaforme è giunta alla fine della sua strada", ha quindi ascoltato i responsabili delle piattaforme.
M. Zuckerberg, premesso che la la missione di Facebook è "dare alle persone il potere di costruire una comunità e avvicinare il mondo, con servizi che mettono in comunicazione più di tre miliardi di persone in tutto il mondo" ha detto che in generale Facebook conferma il suo impegno per mantenere le persone al sicuro e a proteggere la libertà di espressione con politiche che soddisfano questi obiettivi. Per questo sono state investite risorse straordinarie nella moderazione dei contenuti, nel controllo e nella trasparenza. "Abbiamo creato un programma di verifica dei fatti leader del settore. Lavoriamo con 80 terze parti indipendenti verificatori di fatti certificati attraverso la rete internazionale di controllo dei fatti indipendente per frenare disinformazione su Facebook e Instagram. Se il contenuto è valutato falso da una di queste terze parti
verificatori di fatti, abbiamo messo un'etichetta di avvertimento su di esso"
Sul covid 19 Facebook ha lavorato per fornire informazioni autorevoli di esperti sanitari e identificare la disinformazione in particolare impegnandosi a:
x Promuovere informazioni affidabili
x Combattere la disinformazione rimuovendo falsi contenuti (oltre 12 milioni),
x Fornire dati aggregati sui sintomi e sui modelli di viaggio a funzionari della sanità pubblica, ricercatori e organizzazioni non profit
x Sostenere la raccolta di notizie investendo $ 100 milioni per assistere le agenzie stampa e i giornalisti locali
Facebook sta conducendo una grande campagna mondiale per promuovere informazioni autorevoli sui vaccini Covid-19 e in particolare a fornire:
x crediti pubblicitari per 120 milioni di dollari per aiutare i ministeri della salute, le organizzazioni non profit e le agenzie delle Nazioni Unite
x formazione e supporto di marketing
x dati sull'effettiva somministrazione del vaccino
x Aiuto alle persone per trovare dove e quando possono vaccinarsi,
Per quanto riguarda la parte politica Zuckerberg ha rivendicato la correttezza dell'azione di Facebook nel combattere la disinformazione e nel supporto dato agli elettori, collaborando con i funzionari elettorali per rimuovere false affermazioni sulle condizioni di votazione e pubblicando oltre 150 milioni di contenuti dopo la revisione da parte della terza parte indipendente quale verificatori dei fatti. Grande attenzione è stata data nell'informare gli elettori sulle condizioni di tempo e luogo del voto, arrivando a rimuovere ogni linguaggio violento intimidatorio contro i gruppi civici. Secondo Zuckerberg 4,5 milioni di americani si sono potuti registrare per votare tramite Facebook, Instagram e Messenger.
In conclusione il CEO di Facebook ha ricordato che la sua azienda "ha successo perché le persone in tutto il mondo hanno un profondo desiderio di connettersi e condividere, non stare in disparte e combattere. Questo riafferma la nostra convinzione che la connettività e l'unione lo siano in ultima analisi, ideali più potenti della divisione e della discordia, e quella tecnologia può farne parte soluzione alle sfide più profonde della nostra società. Continueremo a lavorare per garantire il nostro prodotti e politiche supportano questa ambizione."
Jack Dorsey, CEO di Twitter, s' è soffermato sull'azione di controllo dei contenuti, sostenendo che viene esercitata nell'interesse comune delle aziende e del mercato: "Se domani ci svegliassimo e decidessimo di smettere di moderare i contenuti, ci ritroveremmo con un servizio che pochissime persone o inserzionisti vorrebbero utilizzare". Dorsey ha poi indicato che la sua azienda per guadagnare la fiducia dei suoi clienti è impegnata a migliorare costantemente in quattro aree: trasparenza, correttezza procedurale, oggettività nella scelta degli algoritmi e privacy.
Secondo Dorsey "la moderazione dei contenuti non è scalabile e la semplice rimozione dei contenuti è inutile", per questo Twitter ha aperto due progetti:
"Birdwatch", per affrontare la disinformazione grazie alle risorse della comunità, e "Bluesky", un team indipendente di architetti open source, ingegneri e designer, per sviluppare standard aperti e decentralizzati per i social media.
Nell'animato dibattito, i membri del Congresso hanno criticato le piattaforme per sistemi di gestione dei basati su algoritmi non trasparenti che accrescerebbero le tensioni sociali, danneggiando i soggetti fragili che hanno libero accesso alle piattaforme stesse, come i minori, come testimoniato dai casi di suicidio di adolescenti. Zuckerberg ha replicato attribuendo la responsabilità di queste situazioni a chi ha abusato della piattaforma: "Penso che la responsabilità sia delle persone che hanno infranto la legge".
Secondo il Wall Street Journal, il tono arrogante e altezzoso dei capi delle piattaforme, oltre a non consentire un dibattito sereno, ha prodotto una sorprendente unità di vedute fra Democratici e Repubblicani, che hanno di comune accordo dichiarato che le grandi aziende tecnologiche sono responsabili di una serie di problemi sociali, e che è necessaria una specifica normativa perché "Non si può sperare che il settore possa auto regolamentarsi ".