Per competere a livello mondiale con le potenze dell’Intelligenza Artificiale, l’Ue deve aumentare in modo significativo gli investimenti e sostenere l’implementazione operativa delle strategie nazionali sull’IA e la loro convergenza.
La regolamentazione delle nuove tecnologie è un compito intricato e tortuoso, ma essenziale. I governi, da un lato devono sostenere e sfruttare i ritorni positivi delle innovazioni, ma dall’altro hanno il dovere di proteggere cittadini e società da danni e possibili rischi garantendo che i diritti delle persone non vengano violati. Non stupisce la lunga gestazione dell’Unione Europea – iniziata nel 2018 – che ha portato ad una prima bozza sulla regolamentazione dell’Intelligenza artificiale (AI Act) rilasciata nel 2021. Ma immediatamente riscritta alla luce dei neonati modelli generali di Intelligenza Artificiale (IA) come il famoso ChatGPT.
L’8 dicembre scorso – dopo una maratona di tre giorni di negoziazioni del trialogo composto dalla Commissione Europea, dal Consiglio e dal Parlamento – è stato approvato l’AI Act per regolare l’uso dei sistemi di intelligenza artificiale nell’Unione Europea. L’atto crea nuove disposizioni normative in tutti i 27 Stati membri che diventeranno applicabili due anni dopo l’entrata in vigore. Alcune disposizioni specifiche si applicheranno entro sei mesi, mentre le norme sui modelli generali di IA si applicheranno entro 12 mesi, un periodo di tempo considerevole per l’IA ma anche utile per migliorare la normativa e individuare eventuali carenze.
A detta del Presidente della Commissione Europea Ursula Von der Leyen, circa 100 aziende hanno già espresso il loro interesse ad aderire al “Patto per l’intelligenza artificiale”, con il quale si impegneranno, su base volontaria, ad attuare gli obblighi fondamentali della legge prima della scadenza legale.
I politici si sono accordati su quello che hanno definito un “approccio basato sul rischio”, in cui una serie definita di applicazioni è soggetta a maggiori controlli e restrizioni rispetto ad altre in base ai suoi rischi potenziali e al livello di ricadute su individui e società nel suo complesso. Mentre i sistemi di IA a rischio limitato saranno soggetti a requisiti di trasparenza per rendere, per esempio, gli utenti consapevoli di interagire con un sistema di IA, per quelli classificati come ad alto rischio (a causa del loro potenziale danno significativo alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo stato di diritto), verranno applicati obblighi più stringenti. Valutazione obbligatoria delle ricadute sui diritti fondamentali, valutazioni di conformità, requisiti di governance dei dati, registrazione in una banca dati dell’Ue, sistemi di gestione del rischio e della qualità, trasparenza, supervisione umana, accuratezza, solidità e sicurezza informatica. Esempi di sistemi ad alto rischio sono alcuni dispositivi medici, strumenti di reclutamento, gestione delle risorse umane e dei lavoratori e gestione delle infrastrutture critiche (ad es. acqua, gas, elettricità, ecc.).
Alcune pratiche, altamente rischiose, come il prelievo indiscriminato di immagini da Internet per creare un database di riconoscimento facciale o sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili come convinzioni politiche, religiose, filosofiche, orientamento sessuale, saranno vietate del tutto, oppure limitate solo ad alcuni casi di sicurezza nazionale. Anche il riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni scolastiche, così come l’uso dell’IA per il “social scoring” – l’uso di metriche per stabilire quanto una persona sia onesta – e i sistemi di IA che “manipolano il comportamento umano per aggirare il suo libero arbitrio” o che sfruttano le persone vulnerabili a causa della loro età, disabilità o situazione economica, saranno vietati.
Il mancato rispetto delle norme comporterà multe che vanno da 7,5 milioni di euro o l’1,5% del fatturato globale a 35 milioni di euro o il 7% del fatturato globale, a seconda della violazione e delle dimensioni dell’azienda, il che fa presagire che le assunzioni di avvocati e esperti da parte delle imprese e dell’Unione Europea sarà superiore a quella di ingegneri e sviluppatori e potrebbe pesare non poco sui bilanci di enti pubblici e privati.
I nuovi regolamenti saranno osservati da vicino a livello globale, non solo dai principali sviluppatori di A.I. come Google, Meta, Microsoft e OpenAI, ma anche altre aziende che si prevede utilizzeranno la tecnologia nei diversi settori quali l’istruzione, l’assistenza sanitaria e le banche. Le aziende europee hanno espresso il timore che regole troppo restrittive sulla tecnologia, che si sta evolvendo rapidamente, possano ostacolare l’innovazione. A giugno 2023, decine di grandi aziende europee, come la francese Airbus e la tedesca Siemens, hanno dichiarato che le regole così come sono state formulate sono troppo rigide per favorire l’innovazione e aiutare le industrie locali. La regolamentazione europea ha provato a rispondere alla sfida di non imbrigliare l’innovazione, attraverso la promozione di “sandbox regolamentari” e “test reali”, istituiti dalle autorità nazionali, per sviluppare e addestrare l’IA innovativa prima dell’immissione sul mercato.
Dopo l’approvazione dell’atto da parte del Parlamento europeo e del Consiglio europeo (che comprende i capi di governo degli Stati membri), saranno istituite nuove infrastrutture amministrative tra cui un Ufficio per l’IA, un gruppo scientifico di esperti indipendenti, un comitato per l’IA e un forum consultivo per le parti interessate. L’Ufficio IA avrà il compito con di supervisionare i modelli di IA più avanzati, di contribuire alla promozione di nuovi standard e pratiche di test e di far rispettare le regole comuni in tutti gli Stati membri dell’Ue. Sembra probabile che questa struttura possa diventare equivalente agli Istituti per la sicurezza dell’IA di cui è stata recentemente annunciata la creazione nel Regno Unito e negli Stati Uniti.
Su questo punto saranno interessanti due aspetti. Il primo, osservare quale comportamento adotteranno gli Stati membri per istituire le autorità locali per l’IA, se potenzieranno le autorità esistenti (ad esempio, le autorità per la protezione dei dati) o opteranno per altre opzioni (ad esempio, una nuova autorità indipendente). Il secondo, monitorare la presenza di aziende private all’interno delle varie infrastrutture amministrative. Far parte del forum consultivo o entrare nel gruppo scientifico di esperti, potrebbe essere un’occasione da non perdere sia per i privati sia per i paesi europei.
Benché l’AI Act sia uno sforzo lodevole e ambizioso di regolamentazione dell’Intelligenza Artificiale, questi mesi prima della sua entrata in vigore potrebbero essere utili per effettuare maggiori approfondimenti sui General Purpose AI System (GPAIS) ossia i “sistemi di intelligenza artificiale per scopi generali” in grado di eseguire funzioni come il riconoscimento di immagini/audio/testo, la generazione di audio/video, il rilevamento di modelli, la risposta a domande, la traduzione, e molto altro.
Nel AI Act, le regole più severe sono per modelli addestrati con più di 1025 FLOP (floting point operations per second, ossia una misura di potenza di calcolo). Tuttavia, per quanto ne sappiamo, solo GPT-4, e forse anche Gemini e uno o due altri modelli, superano questa soglia. Come dimostra il recente sistema Mistral, presentato appena due giorni dopo l’approvazione dell’AI Act, la tendenza è quella di sviluppare modelli più piccoli e potenti. Tuttavia, anche i modelli più “piccoli”, ad esempio nell’ordine di 1024 FLOP (ad esempio, Bard, ChatGPT), potrebbero presentare rischi significativi per la sicurezza dell’IA e la sicurezza cibernetica e probabilmente bisognerà valutare se sia corretto lasciarli alla autoregolamentazione dei privati. Inoltre, la potenza di calcolo non è necessariamente un predittore accurato delle capacità del modello, dei rischi e delle sue ricadute sulla società. In questo contesto, l’adozione di altre possibili unità di misura da affiancare al “criterio della potenza di calcolo” potrebbe essere strategicamente utile.
Un altro punto di riflessione potrebbe essere legato ai modelli open source. La decisione di non regolamentare modelli open come Mixtral 8x7B, Llama 2 di Meta o la famiglia Falcon potrebbe creare problematiche di sicurezza. In generale, i modelli open-source presentano innegabili vantaggi che sono essenziali nel più ampio panorama dell’IA per diffondere la tecnologia e abbassarne il costo, favorendo un ecosistema di IA più diversificato, competitivo e accessibile. Tuttavia se il modello può essere scaricato, i livelli di sicurezza possono essere facilmente rimossi, anche inavvertitamente. Un monitoraggio in tal senso potrebbe essere auspicabile, ma purtroppo estremamente difficoltoso perchè potrebbe essere necessario un sistema di accesso più controllato che potrebbe soffocare l’innovazione.
Infine, il quadro europeo dovrebbe prendere in considerazione non solo la regolamentazione ma anche il progresso dell’innovazione sostenendo la capacità di crescita del settore con investimenti pubblici e regolamentazioni atte ad attrarre e trattenere talenti e start up anche nella fase di exit. Ogni stato dovrebbe essere incentivato a lavorare per il settore europeo dell’intelligenza artificiale mettendo a fattor comune strategie e operatività e rendendo visibili i propri investimenti e avanzamenti.
Affrontare le sfide poste dall’IA, ma anche sfruttare il suo pieno potenziale richiede non solo sforzi di regolamentazione, economici, strategici e collaborativi, ma anche uno sforzo di approccio pragmatico, organizzativo e operativo. Dal Regno Unito, con un investimento di 300 milioni di sterline nel supercalcolo dell’IA; agli Stati Uniti, con 3 miliardi di dollari; dalla Cina, con un investimento di 1 miliardo di yuan, all’Arabia Saudita, al governo australiano, il mondo ha preso con forza la direzione del pragmatismo. Per competere a livello mondiale con le potenze dell’IA come gli Stati Uniti e la Cina, l’Ue deve aumentare in modo significativo gli investimenti e sostenere l’implementazione operativa delle strategie nazionali sull’IA e la loro convergenza.
Nella speranza che si crei davvero un mercato unico europeo magari partendo proprio dalla tecnologia e digitalizzazione.
Per competere a livello mondiale con le potenze dell’Intelligenza Artificiale, l’Ue deve aumentare in modo significativo gli investimenti e sostenere l’implementazione operativa delle strategie nazionali sull’IA e la loro convergenza.
La regolamentazione delle nuove tecnologie è un compito intricato e tortuoso, ma essenziale. I governi, da un lato devono sostenere e sfruttare i ritorni positivi delle innovazioni, ma dall’altro hanno il dovere di proteggere cittadini e società da danni e possibili rischi garantendo che i diritti delle persone non vengano violati. Non stupisce la lunga gestazione dell’Unione Europea – iniziata nel 2018 – che ha portato ad una prima bozza sulla regolamentazione dell’Intelligenza artificiale (AI Act) rilasciata nel 2021. Ma immediatamente riscritta alla luce dei neonati modelli generali di Intelligenza Artificiale (IA) come il famoso ChatGPT.