martedì 25 settembre 2018

I TRAUMI PSICHICI DEI CONTROLLORI E DEI MODERATORI DI FACEBOOK. S. COSIMI, Facebook, ex moderatrice denuncia: “Filtriamo contenuti scioccanti, siamo traumatizzati", REPUBBLICA.IT, 25 settembre 2018

UNA BUONA parte di contenuti spazzatura pubblicati su Facebook non arriva sui display dei nostri smartphone e sui monitor dei laptop. Anzitutto perché algoritmi e filtri automatizzati del social network effettuano un lavoro preventivo portentoso (ma non privo di errori e passi falsi) per fare fuori tutto ciò che contrasta con i famosi standard della comunità: contenuti che incitano all'odio, contenuti violenti e immagini forti, immagini di nudo e di atti sessuali, post che esprimono crudeltà e insensibilità. E ancora: contenuti che incitano al suicidio e all'autolesionismo, post pedopornografici, bullismo, molestie e così via.



Certo non un bel menu quotidiano: basti pensare che nei primi tre mesi del 2018 sono stati eliminati dal social blu ben 21 milioni di contenuti di nudo o pornografici, tre milioni e mezzo di contenuti violenti o pericolosi, due milioni e mezzo di post etichettati come "hate speech".

•L'ESERCITO DI CONTROLLORI
Se è vero che una percentuale oscillante fra l'86 e il 96% dei primi due tipi di contenuti vengono individuati e rimossi dagli algoritmi, quelli relativi alla violenza rimangono abbondantemente in circolazione. In ogni caso, per qualsiasi analisi di secondo livello - specialmente in tutte le situazioni dubbie provenienti in particolare dalle segnalazioni degli utenti - entra in campo l'oscuro esercito dei moderatori in carne e ossa.

Al momento si tratta di un plotone che oscillerebbe fra le 7.500 e le 10mila persone. Entro l'anno diventeranno 20mila operatori. Sono sparsi per il mondo - senza dubbio negli Usa e a Dublino ma diverse inchieste passate ne hanno testimoniato la presenza un po' ovunque, dalla Germania fino al Sudest asiatico - e si occupano appunto di valutare, in pochi secondi, ciò che può rimanere sulle nostre bacheche e ciò che va invece rimosso.

Una catena di montaggio (anzi, di smontaggio) digitale che mette a dura prova le persone coinvolte. Tanto da procurare loro dei traumi psicologici e disturbi da stress post-traumatico particolarmente profondi, legati a video e foto raccapriccianti con cui vengono a contatto ogni giorno in quella specie di corsa contro il tempo. Con reazioni paragonabili a quelle dei militari che sono stati in guerra.

•LA DENUNCIA
Adesso il passaggio che promette un terremoto. Una ex dipendente del gruppo ha infatti appena fatto causa al colosso di Menlo Park proprio per questa ragione. Selena Scola, questo il suo nome, sostiene infatti che Facebook non fornisca una sufficiente e adeguata assistenza psicologica a chi trascorre ore "valutando" contenuti violenti, mutilazioni, omicidi, suicidi, stupri, abusi di ogni genere. La causa parla proprio di un "bombardamento di migliaia di video, immagini e trasmissioni in streaming di violenze pedopornografiche, decapitazioni, bestialità di ogni genere". Un punto che potrebbe cambiare, e in profondità, il modo in cui la piattaforma "pattuglia" i 2,2 miliardi di bacheche attive ogni mese e i post che gli utenti diffondono su di esse.

"Facebook sta ignorando il suo dovere di fornire un posto di lavoro sicuro - ha spiegato Korey Nelson, il legale dell'ex dipendente, che vorrebbe trasformare la causa individuale in una class action in grado di coinvolgere molti ex dipendenti - al contrario, sta costruendo un sistema di porte girevoli di contractor che vengono irreparabilmente traumatizzati da ciò sono costretti a fare sul lavoro". A dire il vero, il social aveva spiegato in passato in che modo si occupasse di queste persone: tutte, per esempio, avrebbero accesso a sostegno mentale sul posto di lavoro fornito da professionisti specializzati sia per consulti di gruppo che individuali e riceverebbero i benefit massimi in termini di assistenza sanitaria. Evidentemente questo trattamento non basta oppure non viene sufficientemente promosso fra il personale.

"Stiamo esaminando la causa. Riconosciamo che spesso questo lavoro può essere difficile - ha spiegato Bertie Thomson, direttrice delle comunicazioni corporale, alla Reuters - per questo il supporto ai nostri moderatori di contenuti è una cosa che prendiamo incredibilmente sul serio. Lo facciamo assicurandoci che ogni persona che controlla i contenuti che circolano su Facebook possa godere di supporto psicologico orientato al proprio benessere".

•IL SISTEMA DEI CONTRACTOR
L'esercito di chi filtra gli orrori che gli utenti pubblicano sul social con gli obiettivi più diversi è composto sia da dipendenti a tempo pieno che da "contractor", cioè da lavoratori esterni assoldati quando è necessario e, a quanto pare, sostituiti con una certa frequenza. Stando a quanto aveva scoperto il Guardian alcuni mesi fa, si tratterebbe spesso di operatori non particolarmente qualificati, con una scarsa conoscenza delle lingue in cui sono scritti o filmati i contenuti che si ritrovano a controllare e che spesso ignorano le offerte di assistenza psicologica, che d'altronde non è obbligatoria. Lo scorso anno il Wall Street Journal aveva non a caso definito il lavoro dei moderatori sui social come il "peggiore in ambito tecnologico".

Scola, che ha depositato la sua causa alla Corte superiore della California della contea di San Mateo, ha lavorato direttamente negli uffici di Menlo Park e Mountain View, per nove mesi a partire dal giugno del 2017 e fino ai primi mesi di quest'anno. Come molti altri, non era sotto contratto con la società di Mark Zuckerberg ma con la Pro Unlimited, un'azienda della Florida che fornisce appunto professionalità di vario tipo dove occorrano. "Da fuori è difficile capire - ha spiegato un moderatore a Motherboard - non siamo solo esposti ai video, dobbiamo esaminarli nel dettaglio, spesso ripetutamente, per individuare specifici aspetti che violino le policy".

Nessun commento:

Posta un commento