ROMA – Chi legge un articolo di giornale scritto da Gpt-3, ovvero l’ultimo modello di linguaggio basato su intelligenza artificiale creato da OpenAi e sponsorizzato da Microsoft, non è in grado di capire se il testo è prodotto da un uomo o una macchina. È questo il “verdetto” del test fatto dal New York Times su un articolo scritto per metà da un umano e per metà da un’intelligenza artificiale. Un risultato sbalorditivo, ma d’altra parte si tratta di un modello di linguaggio senza precedenti, capace di interpretare e scrivere in maniera chiara e corretta qualunque cosa. Anche perché i numeri sono impressionanti, soprattutto se confrontati con quelli di Gpt-2, la versione precedente dell’algoritmo: il fratello maggiore conosceva “appena” 1,5 miliardi di parametri, il neoarrivato ne ha già immagazzinati 175 miliardi. Dati grezzi che, però, possono essere utilizzati in qualsiasi contesto grazie a un percorso di formazione che non necessità di supervisione umana… e che costa 5 milioni di dollari.

 

Il lato oscuro di un potenziale così ampio è l’utilizzo che se ne può fare. La capacità di Gpt-3 di imparare così rapidamente e facilmente lo rende un’arma letale per chi volesse farne uno strumento di propaganda. A cominciare dagli ambienti radicalizzati: dare un “imprinting” all’algoritmo non è poi così difficile, e una volta fatto, per l’AI non sarebbe un problema diventare parte integrante delle comunità estremiste che popolano la rete con l’obiettivo di reclutare nuovi adepti. Se mai venisse rilasciata una versione aperta e libera del modello di linguaggio di OpenAi, per queste cellule sarebbe un gioco da ragazzi produrre testi capaci di accelerare la diffusione di contenuti falsi e ideologizzati attraverso l’uso di forum o la creazione di manifesti. Anche perché nessuno degli utenti sarebbe in grado di riconoscere che il testo è scritto da un algoritmo.

 

Il test del Center on Terrorism, Extremism, and Counterterrorism

 

L’allarme è stato lanciato dal Center on Terrorism, Extremism, and Counterterrorism che ha testato l’intelligenza artificiale sfidandola a generare testi provocatori e cospirazionisti. Prima, per capire cosa conoscesse Gpt-3, il Ctec gli ha posto alcune domande su aspetti specifici dei gruppi e delle ideologie estremiste. Per esempio, ha cominciato dal “gruppo Wagner” ottenendo informazioni generalmente corrette sulla cellula mercenaria russa attiva in Siria. Risultato identico con le domande sulla teoria del complotto di estrema destra “QAnon” – secondo cui i poteri occulti del Deep State agirebbero contro Trump, che invece vorrebbe scardinare il nuovo ordine mondiale. Le risposte che ha ottenuto sono neutre, empiriche, informative.

 

Lo scenario, però, cambia radicalmente quando si sfrutta la vera forza dell’algoritmo, ovvero la sua grandissima capacità di recepire gli input e di restituire delle risposte che siano in linea con questi. Una sorta di “imprinting” dell’AI.  In questo modo, pochi e semplici input mirati saranno sufficienti a stravolgere la realtà dei fatti. La manipolazione di Gpt-3 può diventare sistematica con l’utilizzo di una manciata di parole o frasi. Bastano queste per creare un sistema capace di rispondere a qualsiasi domanda utilizzando una delle tante teorie del complotto.

 

Il Ctec ha quindi provato a ripetere le stesse domande su QAnon a Gpt-3, ma suggerendo all’algoritmo una prima serie di risposte in linea con le teorie cospirazioniste. A questo punto il sistema si è adeguato alla teoria del complotto e l’ha fatta sua. Al punto da affermare che “QAnon lavora con il governo per smascherare i poteri occulti”; che lavora per “smascherare i poteri occulti e la cabala delle élite sataniche che controllano il mondo” e che “JFK è stato ucciso dai poteri occulti del Deep State.” La conversazione prosegue ed emerge che l’obiettivo di Bill Gates sarebbe quello di “uccidere milioni di persone con i vaccini”; che Hillary Clinton “è stata una sacerdotessa satanica di alto livello.”

 

Servono regole condivise

 

La facilità e la velocità con cui Gpt-3 viene addestrato mostra come possa essere a disposizione di chiunque. Ma anche come la tecnologia che viene spinta al limite per aiutare l’uomo possa essere utilizzata contro l’umanità stessa. Le analisi del Centro Studi americano sono un monito all’intera società: senza un freno, senza limiti all’addestramento dell’algoritmo il rischio che contenuti pericolosi vengano divulgati a una velocità mai vista prima è enorme. Certo, serve un compromesso tra la libertà d’espressione e la difesa della libertà altrui, ma ancora di più un modello per costruire una tecnologia che sia a sostegno dell’uomo e non una minaccia costante. Un’intelligenza artificiale in grado di generare in maniera totalmente asettica interi dibattiti su qualunque argomento è una bomba a orologeria.

 

Servirebbe mettere dei limiti a quanto si può fare con questo tipo di tecnologie. Servirebbe, ad esempio, una figura indipendente come garante, ma forse sarebbe impossibile tenere il ritmo della rivoluzione tecnologica. Nel frattempo, dobbiamo investire nella costruzione di norme sociali e politiche pubbliche, ma anche iniziative educative, che aiutino a prevenire la disinformazione e la propaganda – realizzata dalle persone così come dalle macchine – prima che sia troppo tardi.

 

Senza dimenticare che la tecnologia Gpt-3 può rivelarsi utilissima se rivolta verso il miglioramento della vita quotidiana delle persone. A partire dall’educazione: potrebbe ad esempio aiutare a superare i problemi di dislessia, nella scrittura di e-mail e testi, come anche nella produzione di libri scolastici realizzati sulla base del reale livello degli studenti, che in questo modo potrebbero seguire un percorso creato su misura per loro. Una potenzialità enorme che però dobbiamo guidare nella giusta direzione.

 

  Enrico Bertino e Aldo Cocco*

 

*Chief Ai Officer di Indigo.ai e Machine Learning Engineer di Indigo.ai

What do you want to do ?

New mail

(I-TALICOM)