Facebook sicuro, forse fin troppo, ma il prezzo da pagare è alto | Dietro al politically correct si nascondono stupri e violenza

causa meta
Causa a Meta per violazione dei diritti umani – www.iPaddisti.it

Checché se ne dica, Facebook è uno dei social in cui i contenuti vengono più controllati, a differenza di altri siti minori infatti il sito di punta del gruppo Meta utilizza tecniche di revisione molto accurate.

Generalmente il controllo dei contenuti viene assegnato ad un algoritmo il quale riesce a riconoscere rapidamente video, messaggi e foto che violano gli standard della comunità a cui tutti devono sottostare e che comportano anche il ban dell’account.

Quando, durante la navigazione sul social network, si incontrano foto o video violenti che non dovrebbero essere presenti sul sito si può procedere con la segnalazione del contenuto e, qualora l’algoritmo di Facebook non riscontri alcuna violazione si può scegliere di richiedere una revisione manuale .

Questo ultimo passaggio invia quanto condiviso nel post a del personale Meta che ha il compito di visionare il tutto e procedere per l’eliminazione. Ciò che in pochi considerano è che gli addetti che controllano queste segnalazioni sono persone comuni, costrette per contratto a guardare per ore ed ore atti di violenza estrema.

Un ex dipendente che fa parte del gruppo di persone che hanno denunciato Facebook, Trevin Brownie, ha dichiarato che nel primo giorno di lavoro si è sentito male dopo aver visto il video di un uomo che si toglieva la vita davanti al figlio di 3 anni, motivo per il quale ha deciso di aggregarsi ad altri ex dipendenti per cercare di cambiare le condizioni lavorative di questo ambiente.

Moderatori di contenuti, chi nasconde l’orrore dietro il social

Sono 184 i dipendenti che si sono rivoltati contro Meta e Sama, un’agenzia partner di Facebook che ha avuto il compito di assumere moderatori per i contenuti del social in Africa. L’accusa degli ex-dipendenti riguarda la violazione dei diritti umani e la risoluzione illegale del contratto in quanto il progetto localizzato in questo continente è stato chiuso dopo 4 anni.

moderazione
Moderazione contenuti Facebook – www.iPaddisti.it (fonte: freepik)

La maggior parte dei dipendenti ha denunciato non solo perché il lavoro ha danneggiato irrimediabilmente la loro psiche ma anche perché, a differenza di altri ambiti, i moderatori di contenuti non avevano a disposizione alcun aiuto psichiatrico in quanto i consulenti di Sama non erano qualificati per trattare i disturbi post-trumatici derivati dalla visione di quelle atrocità.

Questa però non è la prima causa intentata nei confronti di Facebook, il social infatti è già stato costretto a pagare 52 milioni di dollari nel 2020 per salvaguardare la salute mentale dei moderatori di contenuti americani, evento che ha portato anche i dipendenti irlandesi a chiedere un risarcimento danni.