Come l’intelligenza artificiale influenza la guerra di Gaza
L’uso dei programmi di intelligenza artificiale sta condizionando sempre di più l’informazione relativa ad alcuni conflitti in corso. Il caso della guerra di Gaza nell’analisi di Emanuele Rossi
Ogni giorno la propaganda di Hamas diffonde le immagini di miliziani che escono dai tunnel scavati sul sottosuolo della Striscia di Gaza e attaccano i mezzi delle forze israeliane. Di solito i colpi finiscono a segno, considerato che i guerriglieri palestinesi si muovono in corridoi domestici, rapidi e leggeri, contro i mezzi blindati e pesanti israeliani. Le immagini sono girate con delle telecamere GoPro simili a quelle che molti fanatici del gruppo jihadista avevano addosso il 7 ottobre, quando insanguinarono lo Shabbat con il peggiore attacco subito dallo stato di Israele.
Hamas ha mirato, e mira, a creare un profondo impatto psicosociale con l'intenzione di instillare insicurezza persino nell’intimo delle singole case – anche a questo serviva la violenza dei raid negli edifici. L’obiettivo è continuare a creare uno strappo nel tessuto sociale israeliano. Gli israeliani ora si sentono indifesi, sotto shock per l’orrore subito e spettacolarizzato. Questo ha effetti a cascata, sottoponendo gli ebrei in tutto il mondo a condizioni simili, non solo a causa dei legami emotivi, ma anche perché le manifestazioni con slogan antisemiti e gli atti conseguenti sono stati altrettanto sensazionalizzati – tanto che il governo francese ha per esempio accusato un gruppo di hacker russi di aver moltiplicato attraverso intelligenze artificiali le Stelle di David antisemite stampate sui muri di Parigi.
Questa guerra è anche un conflitto informativo, dove attraverso le operazioni psicologiche si cerca di influenzare cuori e menti. Un teatro, quello comunicativo, parallelo al campo di battaglia fisico. La diffusione di informazioni è così complessa che nel conflitto di Gaza la verità sembra non più univoca, con interpretazioni alternative che costruiscono “più verità”. Mentre entrambi i fronti cercano la supremazia in questa dimensione della battaglia, alcuni Paesi come Russia, Cina e Iran approfittano dall’esterno, cercando di vincere una guerra senza sparare colpi. Combattono uno scontro di narrazione per disarticolare il fronte occidentale, diffondendo estremizzazioni delle realtà a loro vantaggio. In mezzo a un warfare moderno sempre più violento, l’innovazione però non è la guerra informativa in sé, ma l’uso intensivo di tecnologie avanzate, sin dalle prime ore del conflitto, per moltiplicare risultati, effetti, efficacia.
Nelle settimane successive all’improvviso attacco di Hamas a Israele, la guerra che ne è seguita ha generato una “nebbia di guerra guidata da algoritmi”, come l’ha definita Avi Asher Shapiro della Thomson Reuters Foundation. Una nebbia in cui sono scivolate importanti organizzazioni di informazione, sono andante in difficoltà le aziende di social media e sono rimaste ingannate talvolta anche le istituzioni. Parte delle immagini diffuse pubblicamente, non tutte ovviamente, uscivano da vecchie immagini passate come nuove, per esempio. Altri filmati di operazioni che circolavano su X erano tratti dai videogiochi.
Ma tra le immagini e i video ingannevoli che circolano sui social media, hanno attirato attenzione e generato fattore ulteriore di riflessione alcuni contenuti prodotti da strumenti di intelligenza artificiale. Il loro numero è rimasto relativamente marginale finora, ma è in crescita e segna una nuova dimensione dell’infowar e dell’alterazione della realtà. Anche se questa tecnologia ha già avuto un impatto complesso e sottile in altri conflitti in corso, la guerra tra Israele e Hamas è stata il primo caso segnato sin dall’inizio – fortunatamente per ora non dominato – da immagini false generate dall’intelligenza artificiale.
Questi contenuti in futuro potrebbero diventare fattori determinanti, in grado di alterare la percezione anche nell’immediato, producendo risposte collegate sul campo oppure reazioni politiche (e sociali). Sebbene le mistificazioni delle informazioni abbiano sempre fatto parte delle guerre, questa dell’AI è una dimensione nuova, perché rende tutto più realistico, frutto del rapidissimo sviluppo della capacità dei sistemi Large Language Model (LLM) vista nell’ultimo anno.
Per ora, nel contesto israelo-palestinese in corso, la disinformazione generata dall’AI viene utilizzata soprattutto dai fronti per cercare supporto o dare l’impressione di un sostegno più ampio per un determinato schieramento durante certe manifestazioni. Ma usi più invasivi potrebbero essere più pericolosi col procedere degli scontri e della stanchezza dei fronti.
Un fattore chiave nell’aver limitato per ora il ruolo dell’AI è in generale la quantità schiacciante di disinformazione in circolazione, che rende difficile per le immagini generate plasmare la conversazione. Lo spazio delle informazioni è già invaso da fotografie e filmati reali che di per sé inondano direttamente – col tempo immediato della disintermediazione imposta dai social network – Internet. Si tratta di un andamento noto, spinto per caoticizzare il clima da attori interni ed esterni, che sfruttano reazione d’istinto delle collettività e pianificazioni di lungo corso.
Le deepfake nel contesto israeliano arrivano in momento in cui si sta dibattendo moltissimo sulla necessità di creare standard di regolamentazione sull’uso dell’intelligenza artificiale. Riunioni quella recente di Bletchley Park, da cui è uscita una dichiarazione di intenti a cui hanno aderito tutti i principali Paesi del mondo, mirano anche a evitare che da campagne informative prodotte attraverso l’alterazione della realtà robotizzata possano scatenarsi crisi internazionali o acuirsi conflitti in corso.