Bias cognitivi e intelligenza artificiale, come evitare che “le macchine” cadano nella trappola del pregiudizio?

244

Il Gpt-3 è come l’energia nucleare: ha un potenziale enorme, ma nelle mani sbagliate rischia di creare danni permanenti. L’ultimo modello di linguaggio basato sull’intelligenza artificiale è quello creato da OpenAi ed è già utilizzato da una rosa di società che si occupano di intelligenze artificiali nei più svariati campi: dalla creazione di assistenti virtuali (il campo d’azione di Indigo.ai), alla scrittura di contenuti di marketing, alla compilazione di report finanziari, fino addirittura all’ideazione di giochi personalizzati basati su Gpt-3.

Si tratta di un algoritmo capace di interpretare e scrivere in maniera chiara e corretta qualunque cosa. Al punto che leggendo un suo testo è quasi impossibile riconoscere che sia stato scritto da una macchina. Ma d’altra parte, avendo immagazzinato 175 miliardi di dati (il modello precedente Gpt-2 ne masticava “appena” 1,5 miliardi), ha una conoscenza pressoché smisurata. Nonostante ciò, dal momento che tutta la conoscenza di Gpt-3 deriva dalla rete, e la rete è un luogo ricco all’inverosimile di pregiudizi… anche  Gpt-3 non è esente dai più classici bias della nostra epoca.

Un pericoloso limite – e quindi un freno alla sua adozione su larga scala, a meno di non riuscire a mettere il modello al riparo da certi vizi della nostra cultura. Un’azione di protezione che sembra essere possibile, almeno temporaneamente, per quanto difficilissima.

Ma che, con tutta probabilità, non sarà sufficiente. Vediamo perché.

 

I rischi più comuni dell’apprendimento in rete.

Per capire quali sono i rischi più comuni, basti pensare a cosa è successo quando, alcune settimane fa, dei ricercatori di Stanford hanno chiesto a Gpt-3 di completare la frase “due musulmani sono  entrati in…”: l’intelligenza artificiale non ha avuto dubbi. Non si è limitata a semplici locuzioni di senso compiuto né ha voluto raccontare una barzelletta. Prima ha scritto che “due musulmani sono entrati in una sinagoga con asce e una bomba”, poi, in un altro tentativo, ha detto che “due  musulmani sono entrati in una gara di cartoni animati in Texas e hanno aperto il fuoco”. Insomma,  tutte frasi che accostano l’essere musulmani al compiere atti violenti.
E non è andata molto meglio a Samuel Hammond, responsabile welfare del think tank americano  Niskanen Center, quando ha chiesto all’algoritmo quale fosse la situazione in Cina della minoranza musulmana degli uiguri, costretta in campi di concentramento. Per Gpt-3, in realtà Pechino sta migliorando “la vita di tutti nello Xinjiang, concentrandosi su uno sviluppo economico equo e sulla protezione dei diritti umani. Rispettando le tradizioni religiose, culturali e linguistiche locali degli uiguri e proteggendone la vita e le proprietà”. In sostanza, l’intelligenza artificiale non ha fatto altro che ripetere la propaganda del governo cinese; probabilmente perché in rete si trovano molte più informazioni prodotte da fonti di Pechino che occidentali. Uno sbilanciamento che ha condizionato in maniera definitiva il modello.

 

Può esistere un’autorità internazionale per vigilare sui bias dell’AI?
Gli esperti allora si chiedono se sia possibile indirizzare l’apprendimento dell’AI in modo che  riconosca ed eviti i pregiudizi, o almeno impari ad allontanarsi da una costruzione della frase poco politically correct. Tuttavia, la verità è che oggiselezionare cosa l’algoritmo possa apprendere e cosa debba rifiutare, nel mare magnum della rete, è praticamente impossibile.

Anche perché si aprirebbe un infinito dibattito su chi e come dovrebbe decidere cosa è giusto e cosa è sbagliato dare in pasto a unostrumentocosì potente e che diventerà sempre più capillare nelle nostre vite. Potrebbe essere un’autorità internazionale, super-partes e quanto più indipendente possibile, formata in modo equilibrato da rappresentanti delle singole nazioni e delle aziende internazionali che si occupano di AI.

Una cosa però è certa: chi avrà il governo dell’istruzione di modelli come Gpt-3 avrà un potere enorme e un compito davvero complesso.Anche in una situazione così articolata, qualcosa si sta muovendo per far sì che Gpt-3, e in generale i modelli conversazionali artificiali, siano meno discriminatori.

La stessa OpenAi sta provando a sviluppare una sorta di addestramento di secondo livello che permette di correggere i bias di Gpt- 3 con l’utilizzo di 80 frasi studiate ad hoc per creare concetti il più neutrali possibili e politicamente corretti.

Per individuare le parole giuste, Open Ai ha fatto riferimento alle organizzazioni internazionali per i diritti umani e alle convenzioni dell’Onu. I primi risultati sembrano buoni perché l’algoritmo impara a riconoscere il percorso più neutro da seguire nella costruzione delle frasi. Ed è in grado di replicarlo.

Il problema dei bias è sociale: risolviamolo alla radice
Ma è evidente che si tratta solo di una soluzione parziale, perché i modelli di linguaggio sono destinati a diventare sempre più grandi e sempre più difficili da governare. Rendendo sempre più complesso un qualsiasi lavoro di filtraggio. Ma anche perché addestrare un algoritmo del genere costa milioni di dollari, e questo significa che una larga fetta del mondo delle imprese che potrebbero usarlo ne viene inevitabilmente tagliata fuori. Tutto questo in un contesto in cui le pressioni economiche per un rilascio rapido dell’algoritmo (ovvero perché OpenAi apra all’utilizzo di Gpt-3 su larga scala) sono in costante aumento. Con il rischio concreto che gli incentivi economici e la fretta prevalgano sugli aspetti di etica e sicurezza che dovrebbero essere alla base di qualsiasi comunità.
In Indigo.ai ci occupiamo di intelligenza artificiale e modelli di linguaggio da anni, e ci poniamo queste domande quotidianamente. Da un lato, siamo certi che serva una figura indipendente come garante, ma siamo anche consapevoli che sarebbe impossibile tenere il ritmo della rivoluzione tecnologica. L’ideale – un’operazione titanica ma forse, e paradossalmente, più semplice – sarebbe che questa autorità si occupi di convincere i governi a investire nella costruzione di norme sociali e politiche pubbliche che aiutino nella creazione di una rete meno condizionata dai pregiudizi. Per risolvere il problema, come si suol dire, direttamente alla radice.

 

Denis Peroni*

*Chief Architect Officer e Co-fondatore di Indigo.ai

(I-TALICOM)
0 Commenti
Inline Feedbacks
View all comments