Nella sua introduzione alla serata Alessio Petralli, Direttore della Fondazione Möbius, ricorda come nel corso dell’edizione di quest’anno del Premio Moebius si sia deciso di assegnare a Roberto Viola, Direttore generale per le reti di comunicazione, i contenuti e le tecnologie, presso la Commissione europea, un riconoscimento nell’ambito della seconda edizione del Grand Prix Möbius dedicato all’intelligenza artificiale al servizio della società. Nel 2022 il premio era stato assegnato allo scrittore Paolo Giordano.
Petralli ha ricordato l’importanza della presenza di Viola, in una contingenza storica particolare, un momento particolare dell’evoluzione tecnologica mondiale, che vede tra l’altro l’Intelligenza Artificiale (IA) come tema principale della prossima edizione del Moebius (3-4-5 ottobre 2024). È chiaro per tutti che la regolamentazione dell’IA sarà un tema fondamentale per i prossimi anni. La conferenza di Viola seguirà una traccia segnata da otto domande specifiche, già sottoposte al relatore, a cui Viola risponderà nel corso della serata.
Emanuele Carpanzano, Direttore della ricerca, dello sviluppo e del trasferimento della conoscenza presso la SUPSI, porta il suo saluto ai presenti, ricordando che nell’ambito della ricerca all’interno dell’istituto si stia oggi cercando di capire come usare queste tecnologie e come applicarle all’insegnamento. Quella con l’IA sembra una sfida maggiore di quelle affrontate in passato, di maggiore complessità. La sfida non sta soltanto nell’appropriarsi delle conoscenze tecniche per utilizzare l’IA: è una tecnologia complessa a più livelli e rappresenta un impegno tutt’altro che banale tener conto dei suoi risvolti giuridici. Quindi è importante poterne discuterne con interlocutori preparati.
Dal canto suo Luca Gambardella, Direttore del master in intelligenza artificiale USI, prorettore per l’innovazione e le relazioni aziendali USI, sottolinea come la Fondazione Moebius abbia dimostrato, oltre che con l’assegnazione così tempestiva del premio, di essere in grado di affrontare i temi del momento anche nella scelta del tema da trattare nella sua edizione del 2024.
Restando al premio va detto che centrare la discussione sul tema della regolarizzazione dell’IA è molto utile, visto che si fa largo la preoccupazione che la tecnologia lasciata allo stato brado sia pericolosa. È importante invece parlarne con interlocutori autorevoli e capire come agire affinché questa tecnologia vada a beneficio di tutti i cittadini.
Prima domanda: Cosa è stato fatto finora per regolamentare l’IA in EU?
Roberto Viola, ringraziando per l’invito e per il premio, sottolinea come i temi sollevati dalle domande siano tutte questioni di cui vale la pena di parlare. Per rispondere alla domanda su che cosa è stato fatto si potrebbe fare un salto nel tempo e ricordare come negli anni Venti del Novecento ci si fosse posti il problema di regolamentare le velocità dei veicoli. Le velocità di 20, 25 km all’ora che raggiungevano i nuovi mezzi di trasporto erano smisurate per quel tempo. Quindi richiedevano un intervento legislativo di regolamentazione in un ambito fino ad allora mai toccato. La situazione attuale ha qualche analogia con quella necessità. L’innovazione tecnologica richiede sempre che ci sia un’evoluzione anche del quadro regolatorio. L’UE ha iniziato tre anni fa ad occuparsi della questione e ha creato un sistema di regole che cercassero di intervenire nel settore. (Assessment List for Trustworthy Artificial Intelligence (ALTAI): https://digital-strategy.ec.europa.eu/en/library/assessment-list-trustworthy-artificial-intelligence-altai-self-assessment)
Di fatto l’IA può essere usata per scopi molto diversi. Per migliorare la qualità di una fotografia, ad esempio. E questo non pone grossi problemi legislativi. Se viene usata però per eseguire un’operazione chirurgica, qui il problema della responsabilità diventa maggiore. Stesso discorso se viene usata per condurre un’inchiesta di polizia: qui i rischi possono essere ancora maggiori. Si tratta quindi per molti aspetti di affrontare rischi connessi con l’uso di una tecnologia usata in un ambito democratico.
ChatGPT è diventato uno strumento che attualmente attira l’interesse e che è di grande attualità. Giusto quindi che le autorità europee se ne occupino con atti legislativi. In Europa per prendere decisioni devono essere coinvolte due istanze. Il Parlamento europeo e la Commissione europea, la quale può presentare proprie proposte di legge ma che poi devono essere avallate dall’altra istanza.
Dal lavoro iniziato tre anni fa è scaturito un testo che è stato posto in discussione e che poi dovrà essere approvato da tutti gli Stati membri.
Seconda domanda: Quali sono i prossimi passi salienti, dove si vuole andare e che cosa possiamo aspettarci?
Secondo Roberto Viola, occorre mettere in piedi un osservatorio a livello europeo. Regole predefinite sono difficili da porre, sta succedendo qualcosa di nuovo nella storia dell’umanità: è la prima volta che le macchine sembrano saper superare il loro creatore. Si profilano diversi rischi.
Il primo rischio è quello dell’«allucinazione». La pratica ha mostrato che, messa di fronte a compiti complessi, l’IA può generare testi non affidabili, inventando siti che non esistono, proponendo risposte sbagliate. Oltre a questo c’è il rischio che l’IA serva come vettore per lo scaricamento di malware. Un altro rischio è quello che possa insegnare a creare delle armi biologiche. Quindi chi vuole regolamentare l’uso deve sapere influire a due livelli: quello che riguarda l’esattezza delle risposte e quello di capire quando l’uso può produrre dei rischi reali.
Terza domanda: Quali sono gli ostacoli maggiori che si frappongono a una regolamentazione virtuosa dell’IA?
Viola: sono le spinte verso la massificazione nell’uso dell’IA e quella che ricerca solo il profitto.
Si veda l’evoluzione compiuta da Internet: da strumento di comunicazione teoricamente libero e democratico è diventata un mercato da sfruttare economicamente. Oggi è chiaro a tutti che in molti casi l’obiettivo dell’uso di Internet è produrre guadagno.
Se si aggiunge a questo che l’attitudine umana fondamentale sembra essere quella di ricercare cose strane, fatti coinvolgenti che attirano l’attenzione, ecco che il sistema generalizzato degli algoritmi legati all’informazione spinge la creazione di contenuti che promuovano questi elementi di curiosità e di stranezza, cosa che produce il fenomeno delle fake news.
La sfida è evitare che la spinta al profitto renda ingestibile il processo della creazione di informazione. Deve esistere una controspinta di regolazione. La sfida da affrontare oggi è questa.
Quarta domanda: Come valuta quanto è stato fatto in USA, in Cina, in UK, (cioè fuori dall’Europa), rispetto alla regolamentazione dell’IA?
Secondo Roberto Viola gli USA si trovano oggi in una posizione più avanzata rispetto ad altri: non per niente c’è stata di recente la presa di posizione di 150 scienziati che accusano l’IA di essere «una minaccia di estinzione per l’umanità». È un’affermazione pesante. La Casa Bianca ha fatto firmare alle aziende che operano nel settore un codice di regolamentazione. Questo è un intervento molto diverso dal laissez-faire. Anche il Congresso americano se ne sta occupando, ma in questo contesto l’atteggiamento generale non è univoco rispetto all’area di intervento dei provvedimenti.
In Cina oltre all’uso dello strumento in sé che conosciamo, si pone il problema dell’uso a fini di controllo sociale. L’intrusione dello Stato con l’uso dell’IA è un tema complesso. D’altra parte le considerazioni legate al ruolo della Cina come partner commerciale dell’Occidente sono importanti e bisogna trovare il modo di armonizzare queste necessità con la legislazione europea.
In Inghilterra alcuni scienziati hanno creato un gruppo di monitoraggio.
Quinta domanda: Come valuta la posizione della Svizzera rispetto al grande tema dell’IA?
Bisogna dire che dal punto di vista della ricerca scientifica la Svizzera è molto legata all’Europa e ciò è dimostrato ad esempio dalla lunga collaborazione con l’Agenzia spaziale europea. Per quello che riguarda la Svizzera italiana, la sua importanza è data sicuramente dalla presenza del Centro di Calcolo Scientifico, istituto di importanza mondiale, dalla presenza dell’industria farmaceutica e dei servizi finanziari: in tutto questo contesto l’IA ha sicuramente un ruolo da giocare, dato proprio dalla necessità di gestire grandi quantità di dati. Immagino quindi che sarà importante anche qui far iniziare un dibattito su questi temi, lo stesso che è in corso in Europa, anche perché i prodotti che verranno creati qui dovranno alla fine essere conformi alle direttive europee. Spero che tutto questo apra presto un confronto tra le due realtà.
Sesta domanda: Ritiene che finora l’UE abbia avuto un ruolo importante e trainante nel sensibilizzare il resto del mondo sul tema della regolamentazione dell’IA?
Le regole sono un valore, risponde Roberto Viola, e l’Europa che ha una grande giurisdizione è più capace di abbracciare il fenomeno in termini ampi. Ad esempio, la regolamentazione sul trattamento dei dati personali che l’Europa ha messo in opera è diventato uno standard mondiale. Ci si augura che lo stesso processo avvenga con la regolamentazione dell’IA. Il sistema istituzionale europeo è costituito in modo da riuscire a trovare forme di accordo anche su temi difficili: c’è una concreta capacità di discussione e di elaborazione di strumenti giuridici.
Un esempio: la Spagna aveva cercato da sola, tempo fa, di creare delle norme che permettessero ai giornali di ottenere dei proventi economici per i contenuti degli organi di stampa ripresi dai motori di ricerca. Da sola non era riuscita ad ottenere soddisfazione. Quando il tema è stato posto invece a livello europeo, l’Europa con il suo maggior peso politico ha avuto successo, diventando un punto di riferimento, perché l’Europa nel suo complesso può influenzare il mercato. Io credo che succederà lo stesso con l’IA.
Settima domanda: Come tenere nella debita considerazione le esigenze della società civile, delle industrie e delle università?
Roberto Viola: per quello che riguarda l’università, è ovvio che la ricerca universitaria deve essere libera. Anche se in questo contesto non può essere trascurata un’impostazione etica della ricerca.
Per quello che riguarda la creazione di prodotti, le aziende che producono in Europa devono rispettare le regole europee, e le proteste in questo contesto non hanno senso, perché si tratta di un principio riconosciuto. Le aziende oggi cercano di capire l’ampiezza che potranno dare all’uso dell’IA nella loro attività.
Dal punto di vista sociale, ci si pone la domanda se è più importante privilegiare il tema della privacy individuale o quello della sicurezza sociale generale. Un esempio limite di questo discorso è quello che vorrebbe mettere in atto la possibilità di imprigionare qualcuno perché «si suppone» che possa commettere un crimine, piuttosto che imprigionarlo perché lo ha commesso davvero. Abbiamo deciso di vietare questa prima possibilità, anche se farlo è una scelta difficile. C’è un dubbio etico nell’intervento preventivo di polizia e va considerato. I diritti fondamentali non possono essere negati, si crea un problema politico complesso da gestire, ma i principi devono essere rispettati.
Ottava domanda: Quali sono i settori dell’IA che necessitano più di altri di essere regolamentati: sanità, educazione, editoria...?
Viola: un settore importante è quello della medicina. La medicina è cambiata grazie alle macchine. La loro forza è data dalla capacità di riconoscere delle «forme»: più gli scanner sono sofisticati, più sono efficaci nell’individuazione delle malattie. C’è una discussione in corso per l’uso delle tecnologie più raffinate legate all’IA, che aiuterebbero a capire meglio l’evoluzione delle malattie stesse. L’obiettivo teorico è raggiungere una «medicina di precisione». Se si pensa che esistono città come Lagos, che arriverà in prospettiva a 50 milioni di abitanti, come si potrà in futuro gestire l’accesso alle cure se non con l’aiuto di sistemi tecnologici? L’uso dell’IA nel campo sanitario può far fare alla medicina un salto di qualità. L’obiettivo in fondo è rendere la società più sostenibile in tutti i sensi e l’IA può fornire un aiuto determinante.
Domanda ulteriore sul tema: come sarà il medico di famiglia in quel contesto?
Viola: Sarà una persona assistita dell’Intelligenza artificiale, in grado di valutare la probabilità degli sviluppi di diagnosi fatte anche da altri medici. Che il medico ricorra all’IA non deve essere considerato diversamente dal fatto che un pilota d’aereo usi il pilota automatico, cosa che succede normalmente, senza che nessuno lo reputi un problema. Lo fanno anche i piloti di maggiore esperienza. Non è un problema se le azioni più complesse vengono eseguite da una macchina.
Domande del pubblico:
Come gestire il problema della mancanza di trasparenza dei dati nel funzionamento dell’IA?
Viola: Il regolamento che abbiamo presentato prevede l’obbligo di sapere su quali testi è stato addestrato il sistema di IA e da dove vengono i dati. Chi usa il sistema deve avere la possibilità di conoscere questi presupposti. Ci sono ditte commerciali che useranno i sistemi per compiti specifici (medici, legali) e qui si pone la questione della proprietà intellettuale delle informazioni, in modo che chi possiede i diritti su certi contenuti li possa far valere. Il sistema del controllo della trasparenza si baserà sul controllo di questi fattori. Oltre a questo ci si aspetta che la comunità scientifica prenda a carico l’osservazione e la regolamentazione di questi aspetti.
Che rapporto c’è tra la nuova tecnologia e l’opportunità di business. Vengono offerte nuove prospettive?
Roberto Viola: è in corso un dibattito sulla questione, collegato con un altro tipo di fenomeno messo sul tavolo di recente anche dalla Commissione Europea, la quale ha incaricato Mario Draghi di studiarlo: in Europa e nelle società evolute si osserva un importante calo della produttività. È un fatto strutturale: paradossalmente, più la tecnologia avanza, minore è la produttività. Forse l’IA potrà aiutarci a trovare nuovi modi di pensare in grado di trovare soluzioni a questo fenomeno. Le regole finanziarie europee sono più incisive di quelle del resto del mondo, è più forte la regolamentazione nel controllo dei dati, della solidità del sistema bancario: tutto questo rappresenta anche un fardello che rende difficile trovare soluzioni veloci. Bisognerà trovare un compromesso, forse, tra regole solide e sistema economico sostenibile. L’IA potrebbe arrestare il trend: ci sono segnali che l’IA possa diventare un fattore utile e non negativo in questo contesto.
Ci saranno problemi di applicazione del diritto? Le regole europee potranno essere aggirate da altre giurisdizioni (vedi esempio svizzero nei confronti della legislazione USA)?
Viola: la nostra impressione è che da quando l’Europa ha voluto mettere delle regole sul web alla fine ha trovato un accordo anche con gli Stati Uniti, quindi una possibilità di discussione c’è. L’Ue è ancora il mercato più ampio del mondo e quindi ha un potere contrattuale ed è considerata nelle sue decisioni. È difficile non tener conto degli indirizzi presi.
Non sussiste il rischio che le regole siano superate dal fatto che l’IA è in costante evoluzione e una volta fissate sarà in grado di aggirarle?
Roberto Viola: l’IA funziona seguendo dei pattern e saprà sicuramente superare le regole, senza problemi. C’è addirittura il rischio che sappia autoreplicarsi e quindi impari a sfuggire al controllo dell’uomo. Sono problemi non tradizionali e non facili da affrontare. Ma visto con altri occhi questo è un problema analogo a quello della cybersecurity. Il sistema di sicurezza si costruirà su prerogative che esistono già oggi. Qualunque evenienza sarà intercettabile dalla vigilanza della comunità e dalla commissione degli esperti.
Viola propone infine una conclusione generale alla discussione.
Torniamo al discorso della differenza tra un medico sostenuto dall’IA e uno no. Il primo
dovrà essere ancora più intelligente di fronte a una macchina intelligente. Se l’obiettivo dell’alfabetizzazione media della popolazione è stato raggiunto negli anni 50, oggi l’obiettivo è innalzare questa alfabetizzazione, essere più creativi ed essere capaci di padroneggiare le nuove condizioni poste dalla tecnologia. La macchina fa le cose, ma l’uomo è colui che adatta il risultato e lo mette in rapporto con le persone.
Probabilmente vietare l’IA sarebbe un suicidio. Occorre invece insegnare come si usa. Deve assolutamente entrare nelle scuole. Pensate al campo musicale: i musicisti hanno sempre saputo usare le nuove tecnologie per creare nuova musica, musica migliore. La sfida non è negare l’esistenza della macchina ma far progredire la qualità dell’insegnamento.
I problemi che si pongono oggi a livello sociale sono la scarsa partecipazione, in particolare dei giovani, alle elezioni. Questo crea un problema di rappresentanza delle istituzioni. Altro tema è la funzione scandalistica esercitata dai social, che diventano vettore di messaggi populistici e creano bolle informazionali tra persone con la stessa opinione. Si assiste quindi a una situazione preoccupante di stasi.
Se mettiamo l’IA in questo contesto, occorre cercare dei correttivi, per evitare che assecondi queste derive. Qualcuno dice che occorre fare in modo che i contenuti generati dall’IA siano riconoscibili.
Sicuramente occorre fare un salto di qualità per essere in grado di riconoscere gli errori compiuti dalla macchina.
La sfida finale è portare più persone a votare. Le prossime elezioni europee e nazionali saranno le prime soggette a una grande irruzione dell’IA. In questo contesto, la cosa importante sarà comunque portare più persone a votare.
Resoconto di Alessandro Zanoli
Lunedì 18 dicembre 2023
Sala polivalente del Campus Est USI-SUPSI, Lugano
Scarica il resoconto PDF