Facebook: passi avanti nella moderazione dei "messaggi di odio"

- di: Redazione
 
L'odio veicolato sui social media è una realtà ancora non di facile quantificazione, anche le piattaforme, da qualche tempo, si stiano impegnando per arginare il fenomeno. Si tratta essenzialmente di un problema di strategie e Facebook ha pubblicato, nelle scorse ore, una relazione sull'efficacia di quanto sta facendo per contenere la tossicità che viene diffusa sul sito.

Facebook, da quando il fenomeno si è manifestato in tutta la sua ampiezza e nella sua gravità, ha cercato di trovare degli strumenti per combatterlo. I messaggi che violano la policy vengono individuati grazie a un sistema di filtri, quelli rimossi rimossi, grazie al ricorso all'intelligenza artificiale, sono quei messaggi che trattano, in modo offensivo nei confronti di qualcuno, le tematiche legate a razza, sesso, religione e così via. I numeri, che l'azienda californiana ha fornito nel rapporto semestrale di "trasparenza" sulla sua politica di moderazione, si commentano da soli. In tre mesi - da luglio a settembre - sono stati "trattati" ventidue milioni e centomila contenuti di odio. Su Instagram sono stati sei milioni e mezzo.

Queste cifre sottolineano che i messaggi di contenuto sconvenienti veicolati da Facebook sono rimasti sostanzialmente gli stessi rispetto ai tre mesi precedenti, mentre quelli che sono stati diffusi attraverso Instagram sono raddoppiati. Il dato che induce a qualche riflessione viene da un altro elemento: le visualizzazioni di messaggi di odio, video e post, su Facebook sono il doppio di quelle che riguardano immagini di nudo.

Con la presentazione pubblica di quella che viene definita la “prevalenza dell'odio”, che intende definire questo tipo di messaggio sulla sua rete, Facebook pare voler affermare che il fenomeno non sia così endemico come si potrebbe credere. L'analisi dei contenuti della piattaforma ed il confronto numerico rispetto al precedente trimestre sono stati accolti con soddisfazione da Facebook che valuta positivamente come i suoi programmi di intelligenza artificiale mostrino grande efficacia nello scovare e rimuovere messaggi simili.

La percentuale riferita sembra dare ragione a Facebook, secondo cui il 95 per cento di contenuti di odio (sulla base di parole chiave o di contenuti visivi) individuati e "neutralizzati" automaticamente - quindi senza che l'autore sia coinvolto - si devono all'attività dell'intelligenza artificiale. Guy Rosem, uno dei dirigenti di Facebook, responsabile per "l'integrità" della piattaforma”, ha detto che queste cifre mostrano "i progressi che abbiamo compiuto nella lotta contro l'incitamento all'odio".

Un aspetto significativo della relazione, riguardo all'uso intensivo dell'intelligenza artificiale negli ultimi due anni, è che le rimozioni di contenuti ritenuti di odio (pur nella difficile opera di individuazione della differenza tra moderazione necessaria e libertà di espressione) non sono state seguite da proteste di utenti che ritengono che una cancellazione sia stata fatta per errore.
Il ricorso a tecnologie in grado di tracciare l'esistenza di contenuti inappropriati sulla piattaforma è conseguenza anche delle pressioni che, da tempo, alcuni Stati fanno su Facebook affinché si ponga rimedio al dilagare di messaggi nocivi.
Il Magazine
Italia Informa n° 1 - Gennaio/Febbraio 2024
Iscriviti alla Newsletter
 
Tutti gli Articoli
Cerca gli articoli nel sito:
 
 
Vedi tutti gli articoli