Fonte:
Siamomine
Autore:
Roberta Cavaglià
Negli anni Ottanta, un gruppo di hacker decise di creare un nuovo linguaggio per comunicare su BBS, il precursore del World Wide Web e dei social network. Per sfuggire al controllo degli amministratori del sistema, alcuni utenti iniziarono a sostituire le lettere che componevano le parole con numeri e segni. Il risultato è il primo linguaggio in codice della storia della rete, il leet (o 1337), che deriva dalla parola “élite”: solo un numero ristretto di hacker e appassionati riusciva infatti a decifrarlo, mentre quel guazzabuglio di simboli rimaneva invece un’incognita per il resto degli utenti. Oggi il leet è entrato in disuso ed è stato ampiamente decodificato, ma un nuovo modo di comunicare in codice è pronto a prendere il suo posto: l’algospeak.
In un articolo pubblicato sul Washington Post nell’aprile del 2022, la giornalista Taylor Lorenz definisce l’algospeak come un insieme di “parole in codice o giri di parole che gli utenti hanno adottato per creare un vocabolario sicuro che impedisca ai sistemi di moderazione di rimuovere i loro post o azzerarne la visibilità”. In inglese, questo nuovo linguaggio contiene termini come seggs o le$bian (che modificano la grafia di parole come sex o lesbian), unalive (‘non-vivo’, utilizzato per parlare di salute mentale e suicidio), ma anche emojis (melanzane per riferirsi ai vibratori, girasoli per pubblicare contenuti sulla guerra in Ucraina) e refusi (blink in lio al posto di link in bio).
I sistemi di moderazioni a cui si riferisce Lorenz sono utilizzati dai social network per assicurarsi che i contenuti pubblicati sulle piattaforme rispettino le loro linee guida, utilizzando un mix di intelligenza artificiale e manodopera umana. Sui social network, infatti, tutti i contenuti vengono revisionati da modelli di apprendimento automatico che sono stati allenati a riconoscere immagini o espressioni che infrangono il regolamento in vigore, mentre i revisori umani entrano in gioco solo su segnalazione dell’algoritmo, che invia loro i contenuti che necessitano di un’analisi più approfondita. Attraverso l’algospeak, gli utenti riescono ad aggirare il controllo dell’AI, che spesso non si limita ad agire sui contenuti che riguardano violenza, autolesionismo, armi da fuoco, droga e vendita di prestazioni sessuali, ma anche sui post che contengono parole o immagini legati alla salute mentale e sessuale, ai diritti LGBTQIA+, alla disabilità e ai temi di attualità.
Negli ultimi mesi, l’articolo di Lorenz è stato ripreso da numerose testate americane, e non solo: anche in Italia si è iniziato a parlare di “algolingua”, senza utilizzare necessariamente una lente linguistica per spiegare il fenomeno e il modo in cui influenza l’italiano. “Sono dell’idea che ‘algolingua’ possa essere un termine fraintendibile: il cosiddetto ‘algospeak’ non è chiaramente una lingua a sé, con un suo sistema grammaticale, ma prevede variazioni lessicali (o anche solo ortografiche) a partire da una lingua nota, di cui mantiene la sintassi e la maggioranza del lessico”, precisa infatti la psicolinguista e ricercatrice Eleonora Marocchini. “In un caso come questo, io parlerei di ‘criptoletto’, cioè una particolare varietà d’uso di una lingua, parlata e compresa solo da un gruppo ristretto dei suoi parlanti, con l’obiettivo di comunicare rendendosi incomprensibili a persone esterne”, aggiunge.
Inoltre, a differenza dell’inglese, di cui alcune parole hanno assunto sui social network nuovi significati (ad esempio, accountant non significa solo più contabile o commercialista, ma anche sex worker), “nella sua versione italiana, l’algospeak sembra più orientato alla variazione ortografica che lessicale, probabilmente perché gli strumenti di decodifica del parlato (per es. per i sottotitoli automatici) non sono altrettanto avanzati in italiano che in inglese”, precisa Marocchini. In altre parole, è molto più comune (e semplice) per gli utenti italiani sostituire numeri o segni alle lettere (in questo modo, ad esempio, ‘sesso’ diventa ‘s3ss0’ e ‘Palestina’ diventa ‘P4l3stin4’) che associare nuovi significati a parole che esistono già, con rarissime eccezioni (come la perifrasi “l’altro social” su Instagram per parlare di TikTok).
«Bisognerebbe capire qual è il confine tra piattaforma e politica, e qual è l’influenza che la politica ha sulle decisioni delle piattaforme di moderare certi contenuti. Guardando alle decisioni di Oversight Board, la corte suprema di Facebook, come è stata definita, i casi presi in esame sono molto politici», spiega Donata Columbro
“Tendo a modificare spesso parole molto comuni nelle mie elaborazioni come sessualità e lesbica, spesso con numeri o altre forme fonetiche che lascino la parola piuttosto leggibile, ma che aggirino la black list di parole bannate o borderline delle linee guida”, racconta la digital strategist e attivista Isabella Borrelli, che da anni studia la lista nera delle parole vietate (o fortemente ostacolate) sui social network, anche attraverso la pratica su account con migliaia di follower. “Qualche volta utilizzo anche sinonimi che spero non siano in black list, come ‘saffico’ al posto di ‘lesbico’. Dico ‘spero’ perché tutto questo è un lavoro molto empirico e non verificabile, perché le linee guida si guardano bene dal fornire specifiche in merito, perché molto discutibile se non lesivo della libertà d’espressione e discriminatorio”. Il regolamento di Instagram, ad esempio, come quello di molti altri social network, impedisce agli utenti di minacciare altre persone in base alla loro “razza, etnia, nazionalità, sesso, genere, identità di genere, orientamento sessuale, religione, disabilità o malattia”, ma il suo algoritmo non riconosce la differenza tra divulgazione e discriminazione. Eppure, secondo il professore di media studies Ethan Zuckerman, i social network sono il posto migliore in cui fare attivismo su Internet.
Secondo la sua Cute Cat Theory of digital activism, infatti, i social network non sono stati creati per l’attivismo, ma sono comunque migliori di altre piattaforme perché i governi faticano di più a censurarli rispetto a quanto farebbero con altre piattaforme dedicate all’attivismo. Questa teoria risale al 2009, e il suo principio è ancora valido: censurare una piattaforma con poche centinaia di utenti che sostengono una causa specifica suscita sempre meno indignazione della censura di una piattaforma più generalista alla quale sono iscritti milioni di utenti. Allo stesso tempo, però, il rapporto tra piattaforme, politica e attivismo è cambiato molto rispetto a quattordici anni fa. Oggi “bisognerebbe capire qual è il confine tra piattaforma e politica, e qual è l’influenza che la politica ha sulle decisioni delle piattaforme di moderare certi contenuti. Guardando alle decisioni di Oversight Board, la corte suprema di Facebook, come è stata definita, i casi presi in esame sono molto politici”, spiega Donata Columbro, giornalista e autrice del libro “Dentro l’algoritmo. Le formule che regolano il nostro tempo”. Per questo motivo, per lei l’algospeak è “un pezzo di resistenza algoritmica, un approccio hacker se vogliamo, alle limitazioni imposte dalla tecnologia o dalle decisioni prese da chi governa quella tecnologia”.
Tuttavia, come per qualsiasi esempio di crittografia, non farsi capire dai potenziali alleati è il prezzo da pagare per non farsi scoprire dagli avversari. “Per molte comunità marginalizzate i social sono un luogo di ritrovo e la possibilità di trovare attraverso un hashtag altre persone sopravvissute, per esempio, ad abusi sessuali in infanzia, è una risorsa che molte persone definirebbero inestimabile. Se escludiamo chi parla di queste cose per promuovere i propri servizi, spesso chi produce contenuti su questi temi sta riempiendo un vuoto educativo o sanitario”, commenta Marocchini. Alla salute e all’educazione si unisce anche la possibilità di riappropriarsi di parole che ancora oggi vengono utilizzate come insulti. “Vorrei scrivere la parola LESBICA ovunque, per esempio, perché è una parola bellissima utilizzata anche per offendere e discriminare e che al contempo ha avuto e ha un valore politico molto importante”, spiega Borrelli, secondo cui “non poter utilizzare alcune parole è una pratica censoria che ostacola attivamente il raggiungimento di pari diritti, tutele e visibilità delle comunità marginalizzate”.
«Assistendo alle trasformazioni occorse al linguaggio nel suo uso in rete prima, sui social poi, mi sono convinta che di per sé questi costumi tipici della rete non abbiano grandissima incidenza fuori da essa, perlomeno quando le persone conservano una buona competenza linguistica» commenta Vera Gheno
Allo stesso tempo, l’algolingua non è una prerogativa di chi si occupa di attivismo o divulgazione. Anche i gruppi pro-ana, formati da utenti che trattano i disturbi del comportamento alimentare come stili di vita alternativi e istigano gli utenti a raggiungere la magrezza estrema, e novax utilizzano l’algolingua per creare hashtag alternativi o gruppi segreti per diffondere disinformazione su questi temi. “Un sistema di moderazione aggressivo non sarà mai la vera soluzione ai danni provocati dalle scelte di business delle grandi aziende tecnologiche”, spiega Ángel Díaz, professore alla UCLA School of Law ed esperto in tecnologia e razzismo, secondo cui la responsabilità di costruire piattaforme e protocolli migliori ricade sulla classe politica. “La moderazione dei contenuti è l’unico ambito in cui la ‘sicurezza tramite la segretezza’ è considerata una buona pratica”, puntualizza il giornalista Cory Doctorow, riferendosi a un principio dell’ingegneria della sicurezza applicato dalle big tech, secondo cui tenere segreto il funzionamento interno di un sistema lo renda più sicuro.”Ma i troll possono passare giornate a creare account finti per sperimentare diverse strategie per eludere le regole di moderazione dei contenuti. [In questo modo], i ‘cattivi’ sono al corrente delle falle del sistema, mentre le persone che questi sistemi cercano di difendere restano all’oscuro”, conclude Doctorow.
In attesa dell’intervento della politica, l’algolingua continuerà ad adattarsi ai cambiamenti dell’algoritmo, lasciando tracce sempre più eterogenee per gli archeologi digitali del futuro. “Posso immaginare che variazioni lessicali particolarmente iconiche (come ‘accountant’ in luogo di ‘sex worker’) possano finire in uso anche al di fuori di contesti in cui è “un algoritmo” a decidere quali siano i tabù perché, in effetti, molti dei temi “censurati” sui social sono temi tabù nella nostra società anche offline”, spiega Marocchini. Secondo la sociolinguista Vera Gheno, l’algolingua è un esercizio linguistico e creativo potenzialmente utile, ma che non avrà un impatto significativo sull’italiano. “Assistendo alle trasformazioni occorse al linguaggio nel suo uso in rete prima, sui social poi, mi sono convinta che di per sé questi costumi tipici della rete non abbiano grandissima incidenza fuori da essa, perlomeno quando le persone conservano una buona competenza linguistica (chi ha una dieta mediatica fatta solo ed esclusivamente di social, magari può avere qualche problema in più)”, commenta Gheno.
Dopo aver scoperto la lingua giusta per aggirare l’algoritmo, non ci resta che imparare a individuare i modi in cui la lingua dell’algoritmo cerca di aggirare gli esseri umani. Con la diffusione di contenuti generati da chatbot come ChatGPT, infatti, toccherà alle persone imparare a capire quali testi sono stati scritti dall’intelligenza artificiale e quali no. Il primo indizio, secondo Gheno, dovrebbe darcelo proprio l’algolingua che, in quanto espressione dell’imprevedibilità e della creatività del cervello umano, resta “la migliore dimostrazione di dove stia la differenza tra intelligenza umana e artificiale”.