Come l’Intelligenza Artificiale diventa non solo un’arma, ma anche uno strumento nelle mani dei decisori. Cosa guadagnano e cosa rischiano di perdere i governi
Appare difficile, se non addirittura impossibile, arrestare la corsa frenetica dell’Intelligenza Artificiale, come chiesto da Elon Musk, Steve Wozniak e molti altri in una lettera aperta di qualche mese fa. Dallo scorso novembre, mese in cui Open AI ha presentato al mondo la sua creatura Chat GPT, il dibattito circa l’esistenza stessa dell’intelligenza artificiale e gli effetti sulle società e gli individui è cresciuto, in misura pari alla diffusione dei Modelli di linguaggio di grandi dimensioni, Large Language Model (LLM), come si definiscono questi sistemi.
Appare altrettanto difficile fare previsioni, vista la velocità di diffusione; tuttavia, Il fatto che i LLM siano strumenti che producono contenuti e codice informatico colloca chi li possiede in una condizione di vantaggio strategico. Si tratta di piattaforme di sviluppo per innumerevoli applicazioni in molteplici ambiti, dalla scienza all’informazione, dalla medicina alla finanza e ovviamente ai sistemi di difesa e sicurezza. Il fatto che fin d’ora sia possibile creare un codice informatico a un costo marginale molto basso, in un mondo già divorato dal software, secondo la profezia di Marc Andreessen, apre prospettive inedite.
A uno sguardo ampio, appare chiaro che l’Intelligenza Artificiale generativa sconti – per adesso – un monopolio di soggetti e Nazioni, su tutti gli Stati Uniti e la Cina e i rispettivi campioni nazionali in questo settore, che possono non tanto creare, quanto mantenere i LLM. Il costo d’esercizio rappresenta oggi la spesa più significativa in un sistema di AI generativa, molto più che la sua creazione e il suo addestramento.
Stiamo assistendo a un dibattito attorno ai pericoli dell’AI sul fronte della disinformazione, dell’istruzione, della manipolazione dei dati degli utenti e ovviamente sugli effetti sul mercato del lavoro. Manca tuttavia un’analisi di come i LLM possano essere utilizzati dagli Stati nazionali, dalla politica e dai decisori, nell’attività di governo. All’espressione apparentemente neutra, “generazione di contenuti”, corrisponde in realtà la produzione di risposte a fronte di problemi posti da chi si serve di un LLM. Quell’espressione nasconde la costruzione di soluzioni basate su una documentazione che nessun esperto potrà mai possedere. E in un’epoca di feticismo dei dati applicato alle scienze sociali, si tratta di un vantaggio cospicuo. Ricordiamo che l’intera Wikipedia costituisce solo il 4% del materiale utilizzato per addestrare Chat GPT. In questo senso, i sistemi di Intelligenza Artificiale generativa attivano processi decisionali, a fronte di un’analisi di quantità di dati che non ha paragoni rispetto alla storia dell’umanità. Siamo di fronte a una capacità operativa determinata da una base di conoscenza che nessun essere umano potrà mai padroneggiare. E tutto questo con una velocità di risposta che, anch’essa, non ha precedenti.
L’Intelligenza Artificiale, una risorsa strategica al servizio dei governi
Ecco perché dovremmo fin d’ora considerare l’Intelligenza Artificiale, non solo al servizio del mercato, ma anche come una risorsa strategica al servizio dei governi. Oltre l’ambito militare, l’AI potrebbe rappresentare uno strumento a disposizione della politica, in tutti i settori in cui è chiamata a operare scelte complesse basate su variabili complesse.
In un importante saggio sul Wall Street Journal dello scorso 24 febbraio, Henry Kissinger, Eric Schmidt, ex presidente di Google, e Daniel Huttenlocher, decano dello Schwarzman College of Computing presso il MIT, avvertono che “man mano che le macchine risalgono la scala delle capacità umane, dal riconoscimento dei modelli alla sintesi razionale al pensiero multidimensionale, potrebbero iniziare a competere con le funzioni umane nell’amministrazione dello Stato, nella legge e nelle tattiche commerciali. Alla fine, da esse, potrebbe emergere qualcosa di simile alla strategia”. Ipotizzare la competizione, come scrivono Kissinger, Schmidt e Huttenlocher, significa ammettere fin da subito che l’AI possa trasformarsi nel co-pilota (come Microsoft definisce l’intelligenza artificiale nel suo motore di ricerca Bing) del decisore pubblico. Insomma, di fronte a sfide strategiche e a problemi complessi, la richiesta di un supporto nel processo decisionale si estende alla macchina che offre la sua soluzione.
Immaginiamo la questione dell’approvvigionamento energetico di un paese, e quindi una crisi energetica, come esito di un conflitto bellico. Come uscirne?
Si tratta di una condizione che i governi europei hanno già vissuto, e dalla quale sono emersi grazie alla consulenza di conoscitori ed esperti del settore. Ecco, in un futuro non distante, la politica potrebbe decidere di sfruttare anche l’Intelligenza Artificiale generativa per assicurarsi che tutte le opzioni siano state percorse. Che tutte le soluzioni possibili siano state prese in esame. Nella migliore delle ipotesi potremmo assistere a una co-decisione presa da tecnici, politici e macchine. Nella peggiore delle ipotesi, sarà la macchina a offrire una soluzione che garantisca che il maggior numero di dati e di variabili siano stati presi in considerazione. La politica si affida alla macchina per evitare decisioni parziali, viziate – per così dire – da una conoscenza limitata dei fattori che conducono alla decisione stessa.
Nelle scorse settimane, il settimanale New Yorker ha pubblicato un articolo in cui Ted Chiang si domandava se Chat GPT non stesse per diventare la nuova McKinsey. E quindi una versione automatizzata della grande società di consulenza gestionale, che indica alle aziende le scelte più dolorose da compiere, scaricandone la responsabilità su un soggetto esterno affidabile. L’Intelligenza Artificiale generativa potrebbe assurgere non tanto al ruolo di McKinsey per i governi, quanto a quello di un super Fondo Monetario Internazionale o di una super Banca Mondiale, soggetti che indicano la strada da seguire ai governi incapaci di prendere una decisione basata sui dati. Non è difficile immaginare quindi la costruzione di Modelli di linguaggio di grandi dimensioni nazionali o continentali, nel nostro caso della Ue, che lavorino al fianco delle Istituzioni sovrane per supportarle nelle decisioni critiche. Dopotutto nessun esperto, nessun consulente, potrà mai arrivare a disporre di una conoscenza così vasta come quella di un sistema di AI generativa, addestrato su campi specifici, se necessario.
Che questa prospettiva sia nell’ordine delle cose appare difficile da smentire. Osserveremo le modalità attraverso le quali la tecnologia sarà al servizio della politica, modalità oggi difficili – questo sì – da immaginare. Per capirci, questo processo potrà essere palese o nascosto, sarà esibito come emblema di una decisione razionale, o sarà utilizzato dai tecnici al servizio della politica nelle retrovie dei processi decisionali, senza particolari pubblicità. Lo scopriremo.
Rischi e pericoli
Si pongono tuttavia alcuni problemi, oltre quelli estetici, per così dire, di soluzioni a fronte di questioni centrali nella vita dei cittadini affidate a una macchina. E prima di tutto il rischio di uno svuotamento della funzione di governo come luogo delle decisioni democratiche. Poi il pericolo di un’opacità con cui si arriva alla decisione stessa. Questo indipendentemente dal fatto che l’utilizzo dell’AI sia reso pubblico o nascosto. Non è dato sapere, ad oggi, come una rete neurale alla base di un LLM arrivi alla generazione di un dato contenuto, si può soltanto osservare il risultato, a fronte dello sviluppo di un Modello e a seguito di una base-dati utilizzata per l’addestramento. Come ha detto il creatore di Chat GPT, Sam Altman, in un’intervista al New Yorker, “questa è la cosa inquietante delle reti neurali: non hai idea di cosa stiano facendo e loro non possono dirtelo”.
L’opinione pubblica dovrà chiedere secondo quali criteri un sistema di AI generativa è stato addestrato, con quali dati, chi lo possiede e dove risiedono fisicamente i server.
Al rischio di svuotare la politica delle decisioni, si aggiunge quello del linguaggio e delle parole che conducono alle decisioni. Ogni singola scelta politica si fonda, infatti, su ragionamenti che hanno bisogno di essere espressi, di essere detti, prima di tutto nelle Assemblee legislative dove sono presentati, o almeno dovrebbero essere presentati, ai cittadini, come frutto di un dibattito tra posizioni divergenti, insomma il cuore del processo democratico. Quando la decisione viene appaltata alla macchina, il discorso politico diventa orfano delle parole, parole che – a questo punto – esauriscono la loro funzione semplicemente nell’addestrare la macchina. Il pericolo ulteriore è che otterremo prima le decisioni generate dai LLM, intorno alle quali la politica costruirà un discorso politico, senza poter sapere come si è giunti alla decisione stessa.
Le democrazie rappresentative, tra qualche decennio, forse tra qualche anno, corrono il rischio esistenziale di avere di fronte una classe politica che non sarà più in grado di prendere decisioni senza il co-pilota dell’Intelligenza Artificiale, e senza presentare le decisioni al termine di un ragionamento politico calato nel discorso pubblico. Potremmo insomma avere di fronte una classe politica senza capacità di visione, visto che al suo fianco dispone di uno strumento che è stato addestrato con tutte le visioni possibili.
Appare difficile, se non addirittura impossibile, arrestare la corsa frenetica dell’Intelligenza Artificiale, come chiesto da Elon Musk, Steve Wozniak e molti altri in una lettera aperta di qualche mese fa. Dallo scorso novembre, mese in cui Open AI ha presentato al mondo la sua creatura Chat GPT, il dibattito circa l’esistenza stessa dell’intelligenza artificiale e gli effetti sulle società e gli individui è cresciuto, in misura pari alla diffusione dei Modelli di linguaggio di grandi dimensioni, Large Language Model (LLM), come si definiscono questi sistemi.
Appare altrettanto difficile fare previsioni, vista la velocità di diffusione; tuttavia, Il fatto che i LLM siano strumenti che producono contenuti e codice informatico colloca chi li possiede in una condizione di vantaggio strategico. Si tratta di piattaforme di sviluppo per innumerevoli applicazioni in molteplici ambiti, dalla scienza all’informazione, dalla medicina alla finanza e ovviamente ai sistemi di difesa e sicurezza. Il fatto che fin d’ora sia possibile creare un codice informatico a un costo marginale molto basso, in un mondo già divorato dal software, secondo la profezia di Marc Andreessen, apre prospettive inedite.