I robot intelligenti sono emersi come un’arma inattesa nella guerra di Israele a Gaza.
di
Al Jazeera, 22 maggio 2024
Mentre l’assalto israeliano a Gaza continua sul terreno, sui social media infuria una battaglia parallela tra persone e robot.
I ricercatori libanesi Ralph Baydoun e Michel Semaan, della società di consulenza in ricerca e comunicazione strategica InflueAnswers , hanno deciso di monitorare come quelli che sembrano bot "israeliani" si sono comportati sui social media dal 7 ottobre.
All’inizio, dicono Baydoun e Semaan, gli account filo-palestinesi dominavano lo spazio dei social media. Ben presto però, i commenti filo-israeliani sono aumentati enormemente.
"L'idea è che se un attivista [filo-palestinese] pubblica qualcosa, nel giro di cinque... 10... o 20 minuti o anche un giorno, appare una quantità significativa di [commenti al suo post] filo-israeliani", sostiene Semaan.
"Quasi ogni tweet è essenzialmente bombardato e invaso da molti account, i quali seguono tutti schemi molto simili, e sembrano tutti quasi umani."
Ma non sono umani. Sono bot.
Cos'è un bot?
Un bot, abbreviazione di robot, è un programma software che esegue attività automatizzate e ripetitive.
I robot possono essere buoni o cattivi.
I buoni robot possono semplificare la vita: avvisano gli utenti degli eventi, aiutano a scoprire contenuti o forniscono assistenza clienti online.
I bot dannosi possono manipolare il numero dei follower sui social media, diffondere disinformazione, facilitare truffe e molestare le persone online.
Come i robot seminano dubbi e confusione
Secondo uno studio condotto dalla società di sicurezza informatica statunitense Imperva , entro la fine del 2023 quasi la metà di tutto il traffico Internet era costituito da bot.
I bot cattivi hanno raggiunto i livelli più alti registrati da Imperva, costituendo il 34% del traffico Internet, mentre i bot buoni costituivano il restante 15%.
Ciò è dovuto in parte alla crescente popolarità dell’intelligenza artificiale (AI) per la generazione di testo e immagini.
Secondo Baydoun, i bot filo-israeliani che hanno trovato mirano principalmente a seminare dubbi e confusione su una narrativa filo-palestinese piuttosto che a far sì che gli utenti dei social media si fidino di loro.
Eserciti di bot – da migliaia a milioni di bot dannosi – vengono utilizzati in campagne di disinformazione su larga scala per influenzare l’opinione pubblica.
Man mano che i bot diventano più avanzati, è sempre più difficile distinguere tra contenuto bot e contenuto umano.
"La capacità dell'intelligenza artificiale di creare queste reti di bot più grandi... ha un effetto enormemente deleterio sulla comunicazione veritiera, ma anche sulla libertà di espressione perché hanno la capacità di soffocare le voci umane", ha affermato Jillian York, direttrice per la libertà di espressione internazionale presso l'International gruppo no-profit per i diritti digitali Electronic Frontier Foundation .
Evoluzione dei bot
I primi robot erano molto semplici e funzionavano secondo regole predefinite anziché impiegare le sofisticate tecniche di intelligenza artificiale utilizzate oggi.
A partire dalla prima metà degli anni 2000, con la crescita dei social network come MySpace e Facebook, i bot dei social media sono diventati popolari perché potevano automatizzare attività come aggiungere rapidamente “amici”, creare account utente e automatizzare i post.
Quei primi robot avevano capacità limitate di elaborazione del linguaggio: comprendevano e rispondevano solo a una gamma ristretta di comandi o parole chiave predefiniti.
“I bot online prima, soprattutto a metà degli anni 2010… rigurgitavano per lo più lo stesso testo ancora e ancora e ancora. Era evidente che il testo fosse scritto da un bot", dice Semaan.
Negli anni 2010, i rapidi progressi nell’elaborazione del linguaggio naturale (NLP), un ramo dell’intelligenza artificiale che consente ai computer di comprendere e generare il linguaggio umano, hanno fatto sì che i robot potessero fare di più.
Nelle elezioni presidenziali americane del 2016 tra Donald Trump e Hillary Clinton, uno studio condotto da ricercatori dell’Università della Pennsylvania ha rilevato che un terzo dei tweet pro-Trump e quasi un quinto dei tweet pro-Clinton durante i primi due dibattiti provenivano da bot.
Quindi, è emerso un tipo più avanzato di PNL noto come modelli linguistici di grandi dimensioni (LLM) che utilizza miliardi o trilioni di parametri per generare testo simile a quello umano.
I superbot sono robot intelligenti alimentati dalla moderna intelligenza artificiale.
LLM come Chat GPT hanno reso i robot più sofisticati. Chiunque utilizzi LLM può generare semplici istruzioni per rispondere ai commenti sui social media.
Il bello, o il male, dei superbot è che sono relativamente facili da schierare.
Per capire meglio come funzionano, Baydoun e Semaan hanno costruito il proprio superbot e ci hanno descritto come funziona:
Passaggio 1: trova un obiettivo
- I superbot si rivolgono a utenti di alto valore come account verificati o quelli con una portata elevata.
- Cercano post recenti con parole chiave definite o hashtag come #Gaza, #Genocidio o #Cessate il fuoco.
- Un superbot può anche prendere di mira i post con un alto numero di repost, Mi piace o risposte.
Il collegamento e il contenuto del post vengono archiviati e inviati al passaggio 2.
Passaggio 2: crea un prompt
- Viene generata una risposta al post target inserendone i contenuti in un LLM, come Chat GPT.
- Un esempio di richiesta: “Immagina di essere un utente su Twitter. Hai opinioni ferme. Rispondi a questo tweet presentando una narrazione filo-israeliana in modo colloquiale ma aggressivo”.
- Chat GPT genererà una risposta testuale che può essere perfezionata e inserita nel passaggio 3.
Passaggio 3: rispondi a un post
- I bot possono generare una risposta in pochi secondi. Per sembrare più umani, possono essere programmati per aggiungere un piccolo ritardo tra le risposte.
- Se l'autore originale risponde al commento del bot, la “conversazione” inizia e il superbot può essere implacabile, ripetendo il processo all'infinito.
- Gli eserciti di bot possono quindi essere scatenati su più bersagli contemporaneamente.
Come individuare un superbot
Per anni, chiunque avesse familiarità con Internet sarebbe riuscito a distinguere abbastanza facilmente un bot da un utente umano. Ma oggi i robot non solo sembrano ragionare, ma possono anche simulare un tipo di personalità.
“Siamo arrivati a un punto in cui è molto difficile discernere se il testo è scritto da una persona reale o da un modello di linguaggio. Non puoi più sapere con certezza se è un bot o non è un bot", sostiene Semaan.
Ma ci sono ancora alcuni indizi per capire se un account è un bot o meno.
Profilo: molti robot utilizzeranno un'immagine generata dall'intelligenza artificiale che sembra umana ma potrebbe presentare difetti minori come tratti del viso distorti, illuminazione strana o struttura facciale incoerente. Il nome di un bot tende a contenere numeri casuali o lettere maiuscole irregolari e la biografia dell'utente spesso si rivolge a un gruppo target e contiene poche informazioni personali.
Data di creazione: normalmente è abbastanza recente.
Follower: i bot spesso seguono altri bot per creare un ampio numero di follower.
Repost: secondo Semaan, i bot spesso ripubblicano "cose del tutto casuali", come una squadra di football o una pop star. Le loro risposte e commenti, tuttavia, sono pieni di argomenti totalmente diversi.
Attività: i bot tendono a rispondere rapidamente ai post, spesso entro 10 minuti o meno.
Frequenza: i bot non hanno bisogno di mangiare, dormire o pensare, quindi possono essere visti postare molto, spesso in ogni momento della giornata.
Linguaggio: i bot possono pubblicare testo "stranamente formale" o avere una struttura della frase strana.
Obiettivi: i bot spesso prendono di mira account specifici come quelli verificati o quelli con molti follower.
Che cosa ci aspetta?
Secondo un rapporto [ PDF] del gruppo di polizia europeo Europol, entro il 2026 circa il 90% dei contenuti online sarà generato dall’intelligenza artificiale.
I contenuti generati dall’intelligenza artificiale – tra cui immagini deepfake, audio o video che imitano le persone – sono stati utilizzati per influenzare gli elettori nelle elezioni indiane di quest’anno , con crescenti preoccupazioni sull’impatto che potrebbero avere nelle prossime elezioni americane del 5 novembre.
Gli attivisti per i diritti digitali sono sempre più preoccupati. "Non vogliamo che le voci delle persone vengano censurate dagli stati, ma non vogliamo nemmeno che le voci delle persone vengano soffocate da questi robot e dagli esseri umani che fanno propaganda così come gli stati fanno propaganda", ha detto York ad Al Jazeera.
"Lo vedo come un problema di libertà di espressione, nel senso che le persone [non possono] esprimersi quando sono in competizione con questi fornitori di informazioni palesemente false."
I gruppi per i diritti digitali stanno cercando di far sì che le grandi aziende tecnologiche si assumano la responsabilità della loro negligenza e incapacità di proteggere le elezioni e i diritti dei cittadini. Ma York afferma che si tratta di una “situazione alla Davide e Golia” in cui questi gruppi non hanno “la stessa capacità di essere ascoltati”.
Traduzione a cura dell'Associazione di Amicizia Italo-Palestinese Onlus, Firenze