Intelligenza artificiale per tutti
Per sfruttare al massimo lo sviluppo dell'intelligenza artificiale è necessario garantire una serie di regole, che tutelino i diritti dell'intera comunità
Per sfruttare al massimo lo sviluppo dell’intelligenza artificiale è necessario garantire una serie di regole, che tutelino i diritti dell’intera comunità
Mai come prima la tecnologia sembra oggi in grado di poter rivoluzionare in modo radicale qualsiasi aspetto della nostra vita. La frase pronunciata lo scorso settembre da Vladimir Putin “Chi svilupperà la migliore intelligenza artificiale dominerà il mondo”, alla quale ha fatto seguito l’affermazione del tycoon Elon Musk “L’intelligenza artificiale potrebbe causare la terza guerra mondiale” − riportate entrambe dai media con molta enfasi − hanno colpito enormemente l’opinione pubblica. L’idea poi che grazie al machine learning (l’apprendimento automatico) la tecnologia possa evolversi autonomamente anche dalla volontà dei suoi stessi creatori, ha rafforzato una visione distopica del nostro futuro, dove le “macchine” sembrano destinate a dominare gli esseri umani.
Sebbene molti esperti, correttamente, hanno fatto notare che, in realtà, sia ancora molto lontana la completa realizzazione dei principali obiettivi di queste tecnologie − come la piena diffusione delle auto a guida automatica o la realizzazione dell’Intelligenza artificiale generale (AGI), con macchine capaci di eseguire con successo qualsiasi compito intellettuale al pari di un essere umano − ci sono pochi dubbi che aree fondamentali come il mondo del lavoro, la sanità o le strategie militari saranno sempre più influenzate da quel complesso di tecnologie che genericamente chiamiamo intelligenza artificiale (IA).
Se da una parte l’IA presenta potenzialità enormi per migliorare le nostre vite, ad esempio nel prevenire i disastri ambientali o nel migliorare la salute e il benessere di milioni di persone del nostro pianeta, dall’altra gli algoritmi sui quali si basano queste tecnologie spesso mostrano la tendenza a replicare molti dei pregiudizi diffusi nelle nostre società, diventando di fatto strumenti di discriminazione. Far emergere una visione tutta al negativo significherebbe perdere molto del potenziale della IA nel migliorare concretamente il nostro futuro, d’altra parte una visione eccessivamente succube della sua straordinaria efficienza ci farebbe correre il rischio di sottovalutarne pericolosamente i rischi.
Nonostante tutto questo, non esiste una strategia comune a livello globale per determinare lo sviluppo di queste tecnologie e nemmeno organismi capaci di indicare almeno i codici etici basilari per orientarne le scelte. L’intelligenza artificiale è oggi, di fatto, in mano a due sole nazioni: Stati Uniti e Cina, interessate soprattutto al suo utilizzo in campo militare, mentre l’economia della IA è guidata dalla tecnologia proprietaria, in mano a poche aziende che hanno sede in queste due nazioni. Il suo sviluppo infatti è realizzato quasi esclusivamente da imprese private come Amazon, Apple, Google, Facebook da una parte e Tencent, Alibaba o Baidu dall’altra, ovvero le grandi tech company capaci di aggregare quelle enormi quantità di dati delle quali l’IA si nutre e interessate al suo sviluppo per massimizzare i loro profitti.
La Cina ha annunciato nel 2017 un piano di sviluppo con l’obiettivo dichiarato di diventare “il leader mondiale nell’intelligenza artificiale entro il 2030”, e costruire un proprio settore industriale del valore di circa 150 miliardi di dollari. Il Governo degli Stati Uniti non ha, ad oggi, una strategia nazionale coordinata per aumentare gli investimenti nell’IA ma l’Agenzia per lo sviluppo della tecnologia del Dipartimento della Difesa (Darpa) ha annunciato lo scorso settembre il più grande investimento militare nei sistemi di intelligenza artificiale finora, per migliorare e potenziare il proprio arsenale, impegnandosi a spendere fino a due miliardi di dollari nei prossimi cinque anni.
Nonostante le due superpotenze siano, anche in questo campo, in competizione tra loro non siamo di fronte a uno scenario come quello dei due blocchi contrapposti e totalmente separati dell’era della Guerra Fredda. Molte aziende cinesi, ad esempio, investono e sono presenti nella Silicon Valley, così come molti investitori internazionali puntano su aziende cinesi: secondo la società di consulenza di capitale di rischio CBInsight, il 48% di tutti gli investimenti nelle startup di questo settore a livello globale nel 2017 sono stati fatti su aziende cinesi. Mentre le tech company americane, come Apple, dipendono molto dal mercato cinese. D’altronde molti esperti sono d’accordo nel sostenere che il pieno sviluppo dell’IA ha molto più bisogno di cooperazione e condivisione dentro la comunità scientifica che non di competizione e segretezza.
Negli ultimi ventiquattro mesi molte nazioni − dal Canada alla Finlandia, dal Giappone agli Emirati Arabi − hanno definito e pubblicato strategie per promuovere l’uso e lo sviluppo dell’IA. Eppure “Non esistono due strategie uguali” − come hanno fatto notare molti esperti tra cui Tim Dutton che ha fondato Politics +AI – “e ognuna è incentrata su diversi aspetti: ricerca scientifica, sviluppo di talenti, abilità e istruzione, adozione nel settore pubblico e privato, etica e inclusione, norme e regolamenti, dati e infrastruttura digitale”.
In questo quadro così complesso e intricato si fa strada tra molti addetti ai lavori l’idea che lo sviluppo dell’intelligenza artificiale non possa essere pensato senza delle linee guida comuni a tutti. Come ha dichiarato ad esempio Amy Webb, fondatrice del Future Today Institute, in un’intervista rilasciata alla MIT Technology Review, “È necessario creare un’organizzazione centrale che possa sviluppare norme e standard globali, una sorta di spartitraffico perché non siano soltanto gli ideali americani o cinesi a essere protagonisti assoluti all’interno dei sistemi di IA, abbiamo bisogno di visioni del mondo che siano molto più rappresentative del pensiero di tutti”. In molti stanno esprimendo la necessità che gli algoritmi debbano essere subordinati allo stesso tipo di regime etico universale come la Dichiarazione universale dei diritti umani.
Il documento che l’Unione Europea ha redatto su questo aspetto può rappresentare un punto di partenza da ampliare: “Per l’Ue, non è tanto una questione di vincere o perdere una gara, ma di trovare il modo di abbracciare le opportunità offerte dall’IA in modo che questa sia centrata sull’uomo, etica, sicura e fedele ai nostri valori fondamentali. Gli Stati membri dell’Ue e la Commissione Europea stanno sviluppando strategie nazionali ed europee coordinate, riconoscendo che solo insieme possiamo avere successo”.
Esistono però molte difficoltà perché “gli approcci di governance globale che riguardano l’intelligenza artificiale” − come ha scritto lo scorso febbraio Nicolas Miailhe uno dei fondatori di Future Society un think-thank che si occupa della governance delle tecnologie emergenti nato all’interno dell’Università di Harvard − “dovranno cimentarsi con le incoerenze all’interno dei quadri e dei regimi normativi a livello nazionale. Sullo sfondo di una corsa globale tra società private e Stati per sviluppare e controllare questa tecnologia, alcuni Stati hanno dimostrato meno attenzione di altri nel far rispettare standard per l’etica e la sicurezza. Quelli che sono più sensibili alle richieste dei cittadini e dei consumatori per la sicurezza, l’etica e la tutela della privacy, come gli Stati Europei, potrebbero trovarsi in ritardo nell’innovazione sull’IA a breve termine”.
Nessuna di queste sfide è semplice da affrontare ma, come ha scritto recentemente Tess Posner, che da anni lavora per favorire equità e inclusione nella IA: “la quarta rivoluzione industriale può portare prosperità, salute e stabilità al mondo. Ma può anche esaltare la nostra natura peggiore, favorendo la marginalizzazione, l’ineguaglianza. Garantendo l’accesso al potenziale rivoluzionario dell’IA per tutti noi, possiamo utilizzarla al meglio per tutta l’umanità”.
Questo articolo è pubblicato anche sul numero di maggio/giugno di eastwest.
Per sfruttare al massimo lo sviluppo dell’intelligenza artificiale è necessario garantire una serie di regole, che tutelino i diritti dell’intera comunità
Questo contenuto è riservato agli abbonati
Abbonati per un anno a tutti i contenuti del sito e all'edizione cartacea + digitale della rivista di geopolitica
Abbonati per un anno alla versione digitale della rivista di geopolitica