Gli americani utilizzano sempre più parole in codice note come “algospeak” per eludere il rilevamento da parte della tecnologia di moderazione dei contenuti, soprattutto quando pubblicano articoli controversi o che potrebbero infrangere le regole della piattaforma.
ioSe hai visto persone postare di “campeggio” sui social media, è possibile che non parlino di come piantare una tenda o di quali parchi nazionali visitare. Il termine è recentemente diventato “algospeak” per qualcosa di completamente diverso: discutere di questioni relative all’aborto sulla scia del ribaltamento della Corte Suprema di Roe v. Wade.
Gli utenti dei social media utilizzano sempre più parole in codice, emoji e errori di battitura intenzionali, il cosiddetto “algospeak”, per evitare il rilevamento da parte dell’IA di moderazione delle app quando pubblicano contenuti sensibili o che potrebbero infrangere le loro regole. Siobhan Hanna, che supervisiona le soluzioni dati AI per Telus International, una società canadese che ha fornito servizi di moderazione dei contenuti umani e AI a quasi tutte le principali piattaforme di social media, incluso TikTok, ha affermato che “campeggio” è solo una frase che è stata adattata in questo modo. “C’era la preoccupazione che gli algoritmi potessero raccogliere menzioni” di aborto, ha detto Hanna.
Più della metà degli americani afferma di aver assistito a un aumento dell’algospeak mentre si svolgono eventi politici, culturali o globali polarizzanti, secondo i nuovi dati di Telus International provenienti da un sondaggio su 1.000 persone negli Stati Uniti il mese scorso. E quasi un terzo degli americani sui social media e sui siti di gioco afferma di aver “usato emoji o frasi alternative per aggirare termini vietati”, come quelli che sono razzisti, sessuali o legati all’autolesionismo, secondo i dati. Hanna ha spiegato che Algospeak, che è comunemente usato per evitare le regole dell’incitamento all’odio, come molestie o bullismo, è stato seguito da vicino da politiche sulla violenza e sullo sfruttamento.
Abbiamo fatto molta strada da “pr0n” e l’emoji delle melanzane. Le aziende tecnologiche, così come gli appaltatori di terze parti che le aiutano con le politiche dei contenuti, devono affrontare sfide in continua evoluzione a causa di queste soluzioni alternative in evoluzione. Sebbene l’apprendimento automatico possa essere in grado di rilevare violazioni esplicite, come l’incitamento all’odio, l’IA spesso non è in grado di discernere tra le righe quando si tratta di frasi o eufemismi che, in un contesto, sembrano innocenti ma hanno un significato più profondo.
Quasi un terzo degli americani sui social media afferma di aver “usato emoji o frasi alternative per aggirare i termini vietati”.
Il termine “pizza al formaggio”, ad esempio, è stato ampiamente utilizzato da account che offrono di scambiare immagini esplicite di bambini. Sebbene esista una tendenza virale correlata in cui molte persone cantano della loro passione per il mais su TikTok, l’emoji del mais è stata usata frequentemente per discutere o tentare di indirizzare le persone verso il porno. Passato PMI i rapporti hanno rivelato il doppio significato di frasi banali, come “toccare il soffitto”, usate per convincere le ragazze a mostrare i loro seguaci e mostrare i loro corpi.
“Una delle aree che ci preoccupa di più è lo sfruttamento dei bambini e lo sfruttamento umano”, ha detto Hanna PMI. È “una delle aree dell’algolinguaggio in più rapida evoluzione”.
Ma Hanna ha detto che non spetta a Telus International se alcuni termini di linguaggio algoritmico debbano essere rimossi o retrocessi. Sono le piattaforme che “stabiliscono le linee guida e prendono decisioni su dove potrebbe esserci un problema”, ha affermato.
“Di solito non prendiamo decisioni radicali sui contenuti”, ha detto PMI. “Sono davvero guidati dai nostri clienti che sono i proprietari di queste piattaforme. Stiamo davvero agendo per loro conto”.
Ad esempio, Telus International non reprime l’algospeak su momenti politici o sociali ad alto rischio, ha detto Hanna, citando il “campeggio” come esempio. Tuttavia, la società ha rifiutato di rivelare se alcuni termini di linguaggio algoritmico sono stati vietati da qualche cliente.
I riferimenti al “campeggio” sono emersi entro 24 ore dalla sentenza della Corte Suprema e sono aumentati nelle due settimane successive, secondo Hanna. Ma “campeggio” come fenomeno dell’algospeak si è esaurito “perché è diventato così onnipresente che non era più una parola in codice”, ha spiegato. In genere è così che funziona l’algospeak: “Acuirà un picco, attirerà molta attenzione, inizierà a trasformarsi in una sorta di memeificazione e [it] in qualche modo si estinguerà”.
Nuove forme di linguaggio sono emerse anche sui social media durante la guerra Ucraina-Russia, ha detto Hanna, con poster che usavano il termine “non vivo”, ad esempio, invece di menzionare “uccisi” e “soldati” nella stessa frase, per eludere il rilevamento dell’IA . E sulle piattaforme di gioco, ha aggiunto, l’algospeak è spesso incorporato in nomi utente o “gamertag” come dichiarazioni politiche. Un esempio: i riferimenti numerici a “6/4”, l’anniversario del massacro di piazza Tienanmen del 1989 a Pechino. “La comunicazione su quell’evento storico è piuttosto controllata in Cina”, ha detto Hanna, quindi anche se può sembrare “un po’ oscuro, in quelle comunità che sono molto, molto affiatate, può effettivamente essere una dichiarazione politicamente accesa da fare nel tuo nome utente.”
Telus International prevede di vedere anche un aumento dell’algospeak online intorno alle elezioni di medio termine.
“Una delle aree che ci preoccupa di più è lo sfruttamento dei bambini e lo sfruttamento umano. [It’s] una delle aree dell’algolinguaggio in più rapida evoluzione.
Altri modi per evitare di essere moderati dall’IA prevedono l’errore di ortografia di proposito o la sostituzione di lettere con simboli e numeri, come “$” per “S” e il numero zero per la lettera “O”. Molte persone che parlano di sesso su TikTok, ad esempio, lo chiamano “seggs” o “seggsual”.
In algospeak, gli emoji “sono molto comunemente usati per rappresentare qualcosa che l’emoji non era originariamente immaginato come”, ha detto Hanna. Ciò può accadere in alcune situazioni, anche se non è sempre dannoso. Ad esempio, l’emoji del granchio del Regno Unito aumenta come risposta metaforica alla morte della regina Elisabetta. Ma in altri casi è più dannoso: l’emoji ninja in alcuni contesti è stata sostituita con termini dispregiativi e incitamento all’odio nei confronti della comunità nera, secondo Hanna.
Esistono poche leggi che regolano i social media e la moderazione dei contenuti è una delle questioni di politica tecnologica più controverse sul piatto del governo. Legislazioni come l’Algorithmic Accountability Act sono state bloccate da controversie di parte. Questo disegno di legge ha lo scopo di garantire che l’IA (come la moderazione dei contenuti) possa essere gestita in modo etico e trasparente. Le società di social media e le società di moderazione al di fuori di loro hanno fatto tutto, nonostante la mancanza di regolamentazione. Gli esperti hanno espresso preoccupazione per la responsabilità di queste società. chiamato a scrutinioQueste relazioni.
Telus International fornisce moderazione dei contenuti sia umana che assistita dall’intelligenza artificiale e più della metà dei partecipanti al sondaggio ha sottolineato che è “molto importante” avere gli umani nel mix.
“L’IA potrebbe non raccogliere le cose che gli umani possono”, ha scritto un intervistato.
E un altro: “Le persone sono brave a evitare i filtri”.
ANTEPRIMA: DI PIÙ