14 novembre 2019
Aggiornato 14:30
Social network

Facebook: il Guardian rivela il regolamento interno su sesso, terrorismo e violenza

Le regole segrete e le linee guida di Facebook per decidere cosa i propri 2 miliardi di utenti possono pubblicare sul sito sono rivelati per la prima volta in un'indagine Guardian che alimenterà il dibattito globale sul ruolo e l'etica del gigante dei media sociali.

LONDRA - Il Guardian è venuto in possesso delle regole interne in base alle quali i moderatori di Facebook decidono cosa può restare sul popolare social network «abitato» da due miliardi di utenti e cosa no. E così ha rilevato come, negli oltre 100 manuali d'addestramento e di procedure interne, vengono trattati i post su violenza, razzismo, terrorismo, pornografia persino cannibalismo.
I «Facebook Files» sono stati pubblicati oggi dal quotidiano britannico ed è la prima volta che le norme interne al social network fondato da Mark Zuckerberg, che si trova al centro di critiche e pressioni internazionali in merito alla responsabilità dei suoi contenuti, diventano di dominio pubblico.
«Facebook non è in grado di controllare i suoi contenuti. E' cresciuto troppo, troppo velocemente», ha affermato una fonte al Guardian.

I video di aborti sono ammessi, se non contengono nudità
Le norme vanno dal tema del «revenge porn», cioè le immagini a tema sessuale che vengono pubblicate per «vendicarsi» di un ex partner, alle modalità di gestione degli account falsi. Ai moderatori viene indicato come agire attraverso linee guida dotate di immagini e schemi. Questi, tuttavia, devono muoversi su un filo sottile tra la necessità di cancellare contenuti violenti e quella di tutelare il diritto all'espressione.
Per esempio commenti come «qualcuno spari a Trump» devono essere cancellati, perché rappresentano una minaccia a un capo di stato. Altri come «fottiti e muori» no, perché non sono visti come concreta minaccia.
Il confine è sottile. Per esempio, viene ammesso il fatto che Facebook possa mandare live tentativi di autolesionismo, perché non si vuole «censurare o punire persone in difficoltà». I video di aborti sono ammessi, se non contengono nudità. Immagini di abusi non fisici o di bullismo tra i bambini possono restare, se non hanno intenti sadistici o celebrativi.

La gente usa un linguaggio violento per esprimere la frustrazione e deve poterlo fare
In uno dei documenti pubblicati dal Guardian si prende atto che «la gente usa un linguaggio violento per esprimere la frustrazione online» e «deve poterlo fare» sul sito. Insomma «non tutti i contenuti non condivisibili o sgradevoli violano i nostri standard di comunità».
La riflessione sui contenuti dei social network, recentemente, ha raggiunto un nuovo picco, anche in seguito a eventi di cronaca che hanno acceso un faro sulla capacità dei gestori degli stessi di controllarne i contenuti. Suicidi in seguito a persecuzioni sui social, ma anche uccisioni avvenute in livestream hanno portato a puntare il dito contro queste piattaforme.
Anche i guru del settore stanno ragionando sul peso che le loro invenzioni hanno nella vita della gente e dei paesi. Per esempio, in un'intervista al New York Times, il cofondatore di Twitter Evan Williams ha fatto un'autocritica: «Senza Twitter probabilmente Trump non sarebbe diventato presidente. Mi dispiace».