Paola Pisano è professore associato di Business and Innovation Management Università di Torino, Dipartimento Economia e Statistica, già Ministro dell’Innovazione e digitalizzazione.
AI: non solo regole, ma anche strategia e collaborazione
Continua a leggere l’articolo e tutti gli altri contenuti di eastwest e eastwest.eu.
Abbonati per un anno a tutti i contenuti
del sito e all’edizione cartacea + digitale della rivista di
geopolitica a € 45.
Se desideri solo l’accesso al sito e l’abbonamento alla rivista digitale, il costo
per un anno è € 20
Hai già un abbonamento PREMIUM oppure DIGITAL+WEB? Accedi al tuo account
La regolamentazione delle nuove tecnologie è un compito intricato e tortuoso, ma essenziale. I governi, da un lato devono sostenere e sfruttare i ritorni positivi delle innovazioni, ma dall’altro hanno il dovere di proteggere cittadini e società da danni e possibili rischi garantendo che i diritti delle persone non vengano violati. Non stupisce la lunga gestazione dell’Unione Europea – iniziata nel 2018 – che ha portato ad una prima bozza sulla regolamentazione dell’Intelligenza artificiale (AI Act) rilasciata nel 2021. Ma immediatamente riscritta alla luce dei neonati modelli generali di Intelligenza Artificiale (IA) come il famoso ChatGPT.
L’8 dicembre scorso – dopo una maratona di tre giorni di negoziazioni del trialogo composto dalla Commissione Europea, dal Consiglio e dal Parlamento – è stato approvato l’AI Act per regolare l’uso dei sistemi di intelligenza artificiale nell’Unione Europea. L’atto crea nuove disposizioni normative in tutti i 27 Stati membri che diventeranno applicabili due anni dopo l’entrata in vigore. Alcune disposizioni specifiche si applicheranno entro sei mesi, mentre le norme sui modelli generali di IA si applicheranno entro 12 mesi, un periodo di tempo considerevole per l’IA ma anche utile per migliorare la normativa e individuare eventuali carenze.
A detta del Presidente della Commissione Europea Ursula Von der Leyen, circa 100 aziende hanno già espresso il loro interesse ad aderire al “Patto per l’intelligenza artificiale”, con il quale si impegneranno, su base volontaria, ad attuare gli obblighi fondamentali della legge prima della scadenza legale.
I politici si sono accordati su quello che hanno definito un “approccio basato sul rischio”, in cui una serie definita di applicazioni è soggetta a maggiori controlli e restrizioni rispetto ad altre in base ai suoi rischi potenziali e al livello di ricadute su individui e società nel suo complesso. Mentre i sistemi di IA a rischio limitato saranno soggetti a requisiti di trasparenza per rendere, per esempio, gli utenti consapevoli di interagire con un sistema di IA, per quelli classificati come ad alto rischio (a causa del loro potenziale danno significativo alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo stato di diritto), verranno applicati obblighi più stringenti. Valutazione obbligatoria delle ricadute sui diritti fondamentali, valutazioni di conformità, requisiti di governance dei dati, registrazione in una banca dati dell’Ue, sistemi di gestione del rischio e della qualità, trasparenza, supervisione umana, accuratezza, solidità e sicurezza informatica. Esempi di sistemi ad alto rischio sono alcuni dispositivi medici, strumenti di reclutamento, gestione delle risorse umane e dei lavoratori e gestione delle infrastrutture critiche (ad es. acqua, gas, elettricità, ecc.).
Alcune pratiche, altamente rischiose, come il prelievo indiscriminato di immagini da Internet per creare un database di riconoscimento facciale o sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili come convinzioni politiche, religiose, filosofiche, orientamento sessuale, saranno vietate del tutto, oppure limitate solo ad alcuni casi di sicurezza nazionale. Anche il riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni scolastiche, così come l’uso dell’IA per il “social scoring” – l’uso di metriche per stabilire quanto una persona sia onesta – e i sistemi di IA che “manipolano il comportamento umano per aggirare il suo libero arbitrio” o che sfruttano le persone vulnerabili a causa della loro età, disabilità o situazione economica, saranno vietati.
Il mancato rispetto delle norme comporterà multe che vanno da 7,5 milioni di euro o l’1,5% del fatturato globale a 35 milioni di euro o il 7% del fatturato globale, a seconda della violazione e delle dimensioni dell’azienda, il che fa presagire che le assunzioni di avvocati e esperti da parte delle imprese e dell’Unione Europea sarà superiore a quella di ingegneri e sviluppatori e potrebbe pesare non poco sui bilanci di enti pubblici e privati.
I nuovi regolamenti saranno osservati da vicino a livello globale, non solo dai principali sviluppatori di A.I. come Google, Meta, Microsoft e OpenAI, ma anche altre aziende che si prevede utilizzeranno la tecnologia nei diversi settori quali l’istruzione, l’assistenza sanitaria e le banche. Le aziende europee hanno espresso il timore che regole troppo restrittive sulla tecnologia, che si sta evolvendo rapidamente, possano ostacolare l’innovazione. A giugno 2023, decine di grandi aziende europee, come la francese Airbus e la tedesca Siemens, hanno dichiarato che le regole così come sono state formulate sono troppo rigide per favorire l’innovazione e aiutare le industrie locali. La regolamentazione europea ha provato a rispondere alla sfida di non imbrigliare l’innovazione, attraverso la promozione di “sandbox regolamentari” e “test reali”, istituiti dalle autorità nazionali, per sviluppare e addestrare l’IA innovativa prima dell’immissione sul mercato.
Dopo l’approvazione dell’atto da parte del Parlamento europeo e del Consiglio europeo (che comprende i capi di governo degli Stati membri), saranno istituite nuove infrastrutture amministrative tra cui un Ufficio per l’IA, un gruppo scientifico di esperti indipendenti, un comitato per l’IA e un forum consultivo per le parti interessate. L’Ufficio IA avrà il compito con di supervisionare i modelli di IA più avanzati, di contribuire alla promozione di nuovi standard e pratiche di test e di far rispettare le regole comuni in tutti gli Stati membri dell’Ue. Sembra probabile che questa struttura possa diventare equivalente agli Istituti per la sicurezza dell’IA di cui è stata recentemente annunciata la creazione nel Regno Unito e negli Stati Uniti.
Su questo punto saranno interessanti due aspetti. Il primo, osservare quale comportamento adotteranno gli Stati membri per istituire le autorità locali per l’IA, se potenzieranno le autorità esistenti (ad esempio, le autorità per la protezione dei dati) o opteranno per altre opzioni (ad esempio, una nuova autorità indipendente). Il secondo, monitorare la presenza di aziende private all’interno delle varie infrastrutture amministrative. Far parte del forum consultivo o entrare nel gruppo scientifico di esperti, potrebbe essere un’occasione da non perdere sia per i privati sia per i paesi europei.
Benché l’AI Act sia uno sforzo lodevole e ambizioso di regolamentazione dell’Intelligenza Artificiale, questi mesi prima della sua entrata in vigore potrebbero essere utili per effettuare maggiori approfondimenti sui General Purpose AI System (GPAIS) ossia i “sistemi di intelligenza artificiale per scopi generali” in grado di eseguire funzioni come il riconoscimento di immagini/audio/testo, la generazione di audio/video, il rilevamento di modelli, la risposta a domande, la traduzione, e molto altro.
Nel AI Act, le regole più severe sono per modelli addestrati con più di 1025 FLOP (floting point operations per second, ossia una misura di potenza di calcolo). Tuttavia, per quanto ne sappiamo, solo GPT-4, e forse anche Gemini e uno o due altri modelli, superano questa soglia. Come dimostra il recente sistema Mistral, presentato appena due giorni dopo l’approvazione dell’AI Act, la tendenza è quella di sviluppare modelli più piccoli e potenti. Tuttavia, anche i modelli più “piccoli”, ad esempio nell’ordine di 1024 FLOP (ad esempio, Bard, ChatGPT), potrebbero presentare rischi significativi per la sicurezza dell’IA e la sicurezza cibernetica e probabilmente bisognerà valutare se sia corretto lasciarli alla autoregolamentazione dei privati. Inoltre, la potenza di calcolo non è necessariamente un predittore accurato delle capacità del modello, dei rischi e delle sue ricadute sulla società. In questo contesto, l’adozione di altre possibili unità di misura da affiancare al “criterio della potenza di calcolo” potrebbe essere strategicamente utile.
Un altro punto di riflessione potrebbe essere legato ai modelli open source. La decisione di non regolamentare modelli open come Mixtral 8x7B, Llama 2 di Meta o la famiglia Falcon potrebbe creare problematiche di sicurezza. In generale, i modelli open-source presentano innegabili vantaggi che sono essenziali nel più ampio panorama dell’IA per diffondere la tecnologia e abbassarne il costo, favorendo un ecosistema di IA più diversificato, competitivo e accessibile. Tuttavia se il modello può essere scaricato, i livelli di sicurezza possono essere facilmente rimossi, anche inavvertitamente. Un monitoraggio in tal senso potrebbe essere auspicabile, ma purtroppo estremamente difficoltoso perchè potrebbe essere necessario un sistema di accesso più controllato che potrebbe soffocare l’innovazione.
Infine, il quadro europeo dovrebbe prendere in considerazione non solo la regolamentazione ma anche il progresso dell’innovazione sostenendo la capacità di crescita del settore con investimenti pubblici e regolamentazioni atte ad attrarre e trattenere talenti e start up anche nella fase di exit. Ogni stato dovrebbe essere incentivato a lavorare per il settore europeo dell’intelligenza artificiale mettendo a fattor comune strategie e operatività e rendendo visibili i propri investimenti e avanzamenti.
Affrontare le sfide poste dall’IA, ma anche sfruttare il suo pieno potenziale richiede non solo sforzi di regolamentazione, economici, strategici e collaborativi, ma anche uno sforzo di approccio pragmatico, organizzativo e operativo. Dal Regno Unito, con un investimento di 300 milioni di sterline nel supercalcolo dell’IA; agli Stati Uniti, con 3 miliardi di dollari; dalla Cina, con un investimento di 1 miliardo di yuan, all’Arabia Saudita, al governo australiano, il mondo ha preso con forza la direzione del pragmatismo. Per competere a livello mondiale con le potenze dell’IA come gli Stati Uniti e la Cina, l’Ue deve aumentare in modo significativo gli investimenti e sostenere l’implementazione operativa delle strategie nazionali sull’IA e la loro convergenza.
Nella speranza che si crei davvero un mercato unico europeo magari partendo proprio dalla tecnologia e digitalizzazione.
Gli Schiavi del clic
Continua a leggere l’articolo e tutti gli altri contenuti di eastwest e eastwest.eu.
Abbonati per un anno a tutti i contenuti
del sito e all’edizione cartacea + digitale della rivista di
geopolitica a € 45.
Se desideri solo l’accesso al sito e l’abbonamento alla rivista digitale, il costo
per un anno è € 20
Hai già un abbonamento PREMIUM oppure DIGITAL+WEB? Accedi al tuo account
La sala da pranzo della villa di Thomas Jefferson a Monticello, Virginia, aveva una caratteristica a dir poco incredibile. Montavivande, botole, porte erano automatiche e permettevano agli ospiti di partecipare al pranzo senza nessun intervento umano. Si trattava però di un meccanismo che di automatico aveva ben poco. La schiavitù non era stata abolita ma semplicemente nascosta per muovere apparecchiature meccaniche e rendere autonomo ciò che in verità non lo era. Con un racconto che arriva dal passato, l’autore del libro Schiavi del Clic, Antonio Casilli, introduce una nuova forma di schiavitù digitale, nascosta agli occhi degli utenti, per far sembrare processi digitali, piattaforme e l’intelligenza artificiale più automatizzati di quanto in realtà non lo siano. Da Uber a Foodora, da Amazon Mechanical Turk fino a Facebook o Snapchat, figure sconosciute e non specializzate sono necessarie per svolgere mansioni di valutazione, misurazione, correzione, filtraggio, interpretazione di scelte compiute da processi semi automatizzati.
Prima che gli errori possano manifestarsi agli occhi dei clienti. In smart working da sempre, milioni di “schiavi del clic” sono schiavi e volontari allo stesso tempo. Revisionando come “schiavi”, per poche decine di dollari, le attività automatiche delle big tech e aziende nel mondo digitale e, fornendo contestualmente, “come utenti”, recensioni e dati in modo gratuito, consegnano un messaggio diverso dal sogno o incubo, di una piena automazione del lavoro umano. Gli esseri umani sono oggi più necessari che mai per far funzionare, agli occhi degli utenti, gli algoritmi di intelligenza artificiale. Il libro del professore, del Télécom di Parigi, si chiude con un invito non semplice di ridefinizione dei termini d’uso e di servizio delle piattaforme stesse, verso una nuova forma di contratto che preveda il riconoscimento del valore economico del lavoro degli utenti. Una sorta di “reddito sociale digitale”, finanziato dalle piattaforme stesse, che possa fungere da fonte di introiti affinché la promessa dell’intelligenza artificiale non possa mai essere smentita.
Questo articolo è pubblicato anche sul numero di gennaio/marzo di eastwest
Tecnologia e innovazione: non solo resilienza ma crescita
Continua a leggere l’articolo e tutti gli altri contenuti di eastwest e eastwest.eu.
Abbonati per un anno a tutti i contenuti
del sito e all’edizione cartacea + digitale della rivista di
geopolitica a € 45.
Se desideri solo l’accesso al sito e l’abbonamento alla rivista digitale, il costo
per un anno è € 20
Hai già un abbonamento PREMIUM oppure DIGITAL+WEB? Accedi al tuo account
Gli eventi non giocarono a suo favore. La crisi finanziaria del 2008, il Covid-19 del 2019 e la guerra in Ucraina del 2022. Tutti cigni neri. Come ha scritto all’inizio del 2023 Ruchir Sharma, economista del Financial Times, esiste un’altra figura alla quale dobbiamo essere preparati il “Blue Bird”, l’uccello raro dalle sfumature azzurre, animale capace di portare nuove opportunità e ricadute positive. Il prossimo Blue Bird potrebbe essere la fine inaspettata e improvvisa della guerra in Ucraina, un accordo tra Cina e America, o ancora una nuova tecnologia che migliori la vita dei cittadini e la capacità dei Paesi di proteggerli.
Ma per intercettare il prossimo Blue Bird e trattenerlo con noi, bisogna allenare i nostri occhi a guardare al futuro con curiosità e flessibilità, le nostre menti a intuire soluzioni non lineari con gli ingredienti a disposizione, la nostra cultura ad avere il coraggio di perseguire nuove strade con determinazione. Non solo per difenderci, per essere resilienti, per continuare la nostra attività in situazioni critiche. Ma per crescere. Per rafforzare il nostro tessuto imprenditoriale, educativo, sociale. Per ampliare il benessere del nostro paese, delle aziende e dei cittadini e delle cittadine che continuano a lavorare e credere nell’Italia.
Quali sono i blue bird da accogliere? Protagonisti: dati e intelligenza artificiale.
Dall’health care con la digital therapy, alla politica con sistemi di previsione di eventi futuri, individuare settori e tecnologie non ci metterà al riparo nè dalla fatica che affronteremo, nè dagli ostacoli che incontreremo, nè tanto meno dagli altri competitor che correranno con noi. Sappiamo che aziende e paesi, dovranno riprogettare strategie e organizzazioni, migliorare ed espandere collaborazioni interne e esterne, aumentare competenze, mitigare i rischi che ogni cambiamento porta con sé affinchè la tecnologia sia uno strumento a sostegno del benessere di tutti e tutte. Ma il benessere che la tecnologia ha promesso, di crescita economica e sociale, oggi va realizzato.
Nei primi giorni di Covid-19, l’industria tecnologica era consumata da un senso di euforia. Con miliardi di persone bloccate a casa, il lavoro, la scuola e il divertimento si stavano spostando online. Molti speravano che la nuova normalità avrebbe innescato un enorme boom della produttività, grazie alla digitalizzazione delle aziende e alla riduzione del tempo trascorso dai lavoratori a fare i pendolari. Nel 2022 il vento ha smesso di soffiare. L’euforia è finita e oggi l’indice della “follia”, il cosiddetto “lockdown lunacy index”- che comprende Netflix, servizio di streaming; Peloton azienda che vende cyclette collegate a Internet, Robinhood, un’app per la compravendita di azioni, Shopify, una piattaforma di e-commerce e Zoom, azienda di videoconferenze – è sceso di oltre l’80%.
L’invasione dell’Ucraina da parte di Vladimir Putin ha portato, insieme a un’enorme incertezza legata al rischio di escalation nucleare, l’impennata dei costi dei generi alimentari e dell’energia alimentando tassi di inflazione con ripercussione sulla stabilità macroeconomica. In tutto questo gli innovatori del mondo hanno cercato di adattarsi alla nuova realtà di questi ultimi due anni. Molte aziende tech hanno licenziato lavoratori o chiuso progetti sperimentali per tagliare i costi.
Con questo scenario, i Governi sono chiamati sia a sostenere l’innovazione in modi nuovi senza quasi più modelli da seguire, sia a indirizzare le nuove tecnologie verso una prosperità economica e sociale, attraverso politiche industriali coerenti, coordinate e disciplinate. Se questo accadrà, sarà probabile che inizieremo a scrivere una nuova pagina di futuro popolata da “Blue bird”. In caso contrario, molti progetti scomposti faranno da sfondo a relazioni geopolitiche basate su strappi tecnologici che continueranno a far ondeggiare investimenti, aziende, mercati finanziari, a ingombrare le pagine di giornali affollando convegni di roboanti interpretazioni. Ma di fatto, poco potranno regalare allo sviluppo della nostra società e economia. A noi come sempre la scelta. Andare a caccia di Black Swan o fare di tutto per veder volare nel nostro giardino i Blue Bird.