Il bacio di Rodin troppo osé per Facebook
Il social network rifiuta di promuovere la mostra di Linea d’ombra a Treviso con le opere dell’artista francese

France, Paris, Rodin museum, The Kiss.
La censura di Facebook sembra rientrata: Linea d’ombra può pubblicizzare anche su Facebook la mostra dedicata ad Auguste Rodin (che si aprirà a Treviso il 24 febbraio) utilizzando la celebre statua del “Bacio” dello scultore francese. Ma ieri mattina le cose non sembravano stare così. L’immagine era stata stroncata dagli amministratori del social network, che l’avevano così bollata: «Un’immagine che mostra eccessivamente il corpo o presenta contenuti allusivi», e avevano consigliato Marco Goldin, l’animatore di Linea d’ombra, «di utilizzare contenuti che si concentrano sul tuo prodotto o servizio, evitando allusioni di natura sessuale». Ma cosa può esserci di più pertinente, per un organizzatore di mostre, delle opere che intende esporre?
Nel pomeriggio la virata: la colpa è tutta dell’algoritmo, che individua meccanicamente i contenuti sessualmente espliciti. L’immagine è stata valutata da persone in carne ed ossa e l’hanno riabilitata. Posso non crederci? Tra la prima censura e il secondo via libera c’è stato un comunicato stampa di Marco Goldin, presto ripreso dalle versioni online dei giornali. Rispetto al rischio di annebbiamento della propria reputazione, Facebook ha fatto marcia indietro, dando la colpa al povero algoritmo, che non può difendersi. Ma anche fosse stato così, chi l’ha creato l’algoritmo? Il Padreterno? Certamente no, l’ha creato Facebook (che pure, forse, si crede il Padreterno). Facebook è quindi comunque colpevole di questa colossale stupidata. Che non è la prima: per esempio, nel corso degli anni, molti profili sono stati messi in quarantena perché avevano pubblicato il dipinto “L’origine del mondo” di Courbet.
Ma Facebook non è nuovo neppure alle marce indietro, quando entrano in gioco i cari e vecchi giornali. Un paio di anni fa aveva censurato, cancellandolo, un post di Vera Gheno, l’amministratrice del profilo twitter dell’Accademia della Crusca, che aveva commentato salacemente, ma rispettosamente, quanti criticavano, rivelando profonda ignoranza, la posizione dell’Accademia sull’“invenzione” dell’aggettivo “petaloso” da parte di un bambino. Anche in quel caso, i giornali avevano subito ripreso la notizia della censura e Facebook ha prontamente ripubblicato il post. Insomma, gli algoritmi faranno errori, ma sono anche un po’ vigliacchi: forti con i deboli, deboli con i forti, soprattutto quando i forti raggiungono le pagine dei giornali.
Ma se si tratta di utenti che non riescono a ottenere eco sui giornali, o non vogliono farlo, la sorte è segnata: post bloccati, impossibilità di pubblicare (prima per un giorno, poi per tre, poi per un mese…). Anche quando si è completamente innocenti. Per esempio, perché si parla del calciatore Francesco Finocchio (che ha giocato anche nel Padova). Oppure perché si cerca di contrastare, citandoli, i razzisti che denigrano i «negri» (parola tabù); o perché si cita la battuta del moroso «nella spazzatura c’è il finocchio che si anima, attenta …» (affiancata, ahimè, alla notizia che «c’è Povia in Prato a Capodanno»), o perché si scrive «smettetela di dire su a Cassano! Per lui non esistono i gay, non ha mai pronunciato quella parola. Sono froci, punto! Per lui non è un insulto». E chi più ne ha più ne metta. Ma, invece, chi segnala l’immagine di una casa in fiamme con la scritta «In quella casa ci abitava il mio vicino che ha votato no al referendum del Veneto. Poi non so cosa sia successo», si vede rispondere che il post non viola nessuno degli specifici «standard della comunità» di Facebook.
Marco Giacosa, il giornalista che aveva pubblicato i post antirazzisti in cui si citavano i detrattori dei «negri», ha raccontato la sua vicenda sulla Stampa e ha trattato la questione cruciale: ma le espulsioni e gli oscuramenti li decide il meccanico algoritmo o un ben più responsabile essere umano? Ed ha scritto questo: «Sì, c’è sempre un umano dietro ogni valutazione; sì, è possibile che alcune parole non vengano comprese nel loro contesto; anche quando i post sono sventagliate da seimila battute, sì, l’umano legge, o dovrebbe farlo, le seimila battute e non limitarsi a cercare, questa sì con l’algoritmo, la parola chiave nel post segnalato».
Se è vero questo, bisogna dire che c’è una speranza per gli analfabeti funzionali: quello di essere assunti da Facebook. Solo un analfabeta funzionale non capisce che il Finocchio calciatore non è un omosessuale; che a usare «frocio» non è l’utente, ma il bersaglio polemico (e così nel caso di «negro»); o che i finocchi nella spazzatura sono ortaggi non più commestibili, e non altro. Un umano anche mediamente alfabetizzato queste cose le capisce, i guardiani di Facebook, no. L’ipotesi alternativa è che a non capirlo siano davvero gli algoritmi con cui il social network cerca di risparmiare tempo e stipendi. Ma Facebook non potrebbe ricorrere a sistemi di analisi automatica dei testi un po’ più intelligenti? Con i fatturati che raggiunge, un miglioramento della comprensione dei valori contestuali (che siano valutati da una macchina o da un umano) sarebbero d’obbligo.
Il fatto è che, come ha mostrato il New York Times, ripreso in italiano da Wired, Facebook ha un’idea tutta sua di cosa possa essere un’espressione ostile (per esempio mostra una forte attenzione all’odio razziale, ma non a quello contro le diverse classi sociali), in base a regole che spesso sono ben diverse dal sentire comune. Ma gli utenti di Facebook (io per primo) possono biasimare solo se stessi. Come ha scritto un giornalista sul social network: «Questo succede da quando abbiamo messo in mano le nostre comunicazioni a un monopolista incolto».
Riproduzione riservata © Il Mattino di Padova
Leggi anche
Video