I dolori di Facebook: dai documenti riservati spuntano nuove accuse contro la società

213

Tutto trae origine da alcuni documenti forniti al Congresso americano dalla ex dipendente Frances Haugen. Documenti che sono finiti nelle mani di alcune testate giornalistiche.

 

Sono passati poco meno di quattro anni dallo scandalo Cambridge Analytica, che per la prima volta ha messo veramente in discussione la tenuta di Facebook e addirittura la carica di Mark Zuckerberg. Oggi molti analisti ritengono nerissimo quel periodo per l’azienda californiana. E lo conferma anche l’andamento storico del titolo in Borsa. Ma sulla testa di Facebook è tornata pioggia sporca. E l’azienda sta attraversando un nuovo grande scandalo, che sta mettendo a nudo tutte le fragilità del gigante di Zuckerberg.

Tutto trae origine da alcuni documenti forniti al Congresso americano dalla ex dipendente Frances Haugen. Documenti che sono finiti nelle mani di alcune testate giornalistiche. Migliaia di pagine che svelano informazioni più o meno nascoste sull’azienda di Menlo Park. E che provano a inchiodare Zuckerberg su alcuni punti chiave: il social “blu” non fa abbastanza per garantire la sicurezza dei suoi 2,9 miliardi di utenti, minimizza il danno che può causare alla società e ha ripetutamente ingannato gli investitori e gli utenti. Per ora, da queste pagine sono emerse almeno 4 rivelazioni ingombranti. Vediamole.

La moderazione

Facebook è spesso accusato di non riuscire a moderare l’incitamento all’odio sui suoi siti in lingua inglese, ma il problema pare sia addirittura peggiore nei Paesi dove si parlano altre lingue. E questo – secondo i documenti consegnati al Congresso – anche dopo aver promesso di investire di più dopo essere stato accusato di aver “facilitato” il genocidio in Myanmar nel 2017. Un documento del 2021 metteva in guardia sul numero molto basso di moderatori umani di contenuti nei dialetti arabi parlati in Arabia Saudita, Yemen e Libia. Un altro studio sull’Afghanistan, dove Facebook ha 5 milioni di utenti, ha scoperto che anche le pagine che spiegavano come segnalare l’incitamento all’odio erano tradotte in modo errato. I fallimenti si sono verificati anche se la ricerca di Facebook ha contrassegnato alcuni Paesi come “ad alto rischio” a causa del loro instabile panorama politico e della frequenza di incitamento all’odio che compariva online.

Secondo un report interno, la società ha stanziato l’87% del suo budget per lo sviluppo di algoritmi proprietari capaci di rilevare fake news negli Stati Uniti nel 2020, contro il 13% investito nel resto del mondo. E per questo Frances Haugen ha scritto che Facebook dovrebbe essere trasparente sulle risorse investite nei vari Paesi e nelle varie lingue.

Facebook non conosce i suoi algoritmi

Diversi documenti interni, finiti nelle mani del Congresso americano, dimostrano che Facebook stessa nutre molte perplessità circa i propri algoritmi. Una nota del settembre 2019 ha rilevato che gli uomini ricevevano il 64% in più di incarichi politici rispetto alle donne in «quasi tutti i Paesi», con un problema particolarmente ampio nei Paesi africani e asiatici. Mentre gli uomini erano più propensi a seguire gli account che producono contenuti politici, il documento evidenziava che anche gli algoritmi di classificazione dei feed di Facebook avevano svolto un ruolo significativo.

Una nuova nota, nel giugno 2020, ha poi chiarito che era «virtualmente garantito» che «i principali sistemi di Facebook mostrano pregiudizi sistemici basati sulla razza dell’utente interessato». Ma c’è di più. I documenti svelano che poiché la sua intelligenza artificiale ha fallito, il social ha anche reso più difficile segnalare l’incitamento all’odio. Secondo una nota del marzo 2021 di un gruppo di ricercatori, la società interviene solo su un minimo del 3-5 per cento dei discorsi di odio e dello 0,6 per cento dei contenuti violenti. Un altro promemoria suggerisce che potrebbe non riuscire mai a superare il 10-20%, perché è «straordinariamente impegnativo» per l’intelligenza artificiale comprendere il contesto in cui viene utilizzata la lingua. Tuttavia, Facebook aveva già deciso di fare più affidamento sull’AI e di tagliare gli investimenti per la moderazione umana nel 2019.

I fatti di Capitol Hill

I documenti rivelano il fallimento di Facebook per contenere l’esplosione di odio e disinformazione sulla sua piattaforma intorno alla rivolta di Capitol Hill, consumatasi il 6 gennaio 2021. I file mostrano che la società ha disattivato alcune salvaguardie di emergenza sulla scia delle elezioni del novembre 2020, solo per affrettarsi a riattivarne alcune mentre la rivolta divampava. Una valutazione interna ha rilevato che la rapida attuazione delle misure è stata ostacolata dall’attesa dell’approvazione da parte del team politico, che evidentemente non ha risposto immediatamente alle richieste dei dipendenti.

Anche le azioni proattive non hanno avuto l’effetto desiderato. Nell’ottobre 2020, Facebook ha annunciato pubblicamente che avrebbe smesso di raccomandare “gruppi civici”, che discutono di questioni sociali e politiche. Tuttavia, a causa delle difficoltà tecniche nell’attuazione del cambiamento, a 3 milioni di utenti statunitensi è stato comunque consigliato almeno uno dei 700.000 gruppi civici identificati su base giornaliera tra metà ottobre 2020 e metà gennaio 2021, secondo una nota di ricerca. Insomma, queste sono solo alcune delle note dolenti contenute in migliaia di pagine che, ancora per alcuni giorni, racconteranno verità scomode per Facebook. Da parte sua, l’azienda – che intanto si appresta a cambiare nome – per ora preferisce non entrare nel merito delle vicende, limitandosi a note che respingono ogni accusa. «La verità – continuano a ripetere da Facebook – è che abbiamo investito 13 miliardi di dollari e abbiamo oltre 40.000 persone impiegate per un unico intento: mantenere al sicuro le persone su Facebook».

(IlSole24Ore)

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui