Alessio Petralli, direttore della Fondazione Möbius, dopo aver salutato i presenti anche a nome del presidente della fondazione Möbius Guido Albisetti trattenuto a Berna da motivi di lavoro, introduce la conferenza ricordando due date importanti: il 30 novembre 2022 viene annunciata l’apparizione del software ChatGPT, una grande sorpresa che lascia l’opinione pubblica spiazzata, e poi il 27 gennaio 2025, in cui si annuncia il varo di DeepSeek, un sistema che ha cambiato parecchie cose nella discussione sul tema IA. Petralli afferma in particolare di essere stato sorpreso in entrambi i casi dalla …sorpresa mostrata dagli addetti ai lavori.
D’altro canto negli ultimi giorni le notizie legate all’IA sono particolarmente interessanti: sia per quello che riguarda le iniziative governative, cioè gli “Stati generali” convocati in Europa dal presidente francese Macron, sia le reazioni di personalità importanti del settore, come l’amministratore delegato di Google, Sundar Pichai, secondo il quale non è opportuno frenare la ricerca con nuove leggi, ma basta applicare quelle che già esistono colmandone le lacune. Tutto questo mostra la nascita di un bipolarismo EU - USA che impone la discussione sull’argomento. Che fare?
Intervento di Barbara Caputo
Si parte da un evento iniziale, significativo per Caputo: nel 1958 il «New York Times» pubblica una notizia in cui si riferisce della presentazione alla stampa di una nuova macchina, il Perceptron, un apparato che potremmo definire il bisnonno dell’IA come lo conosciamo oggi. Si trattava di un grande macchinario con molte connessioni che in un certo senso simulavano il funzionamento dei neuroni del cervello. È un apparato fisico e i commenti sono emozionanti: “Sarà il primo dispositivo in grado di provare come funziona il cervello umano, diventerà sempre più bravo con l’esperienza e saprà dare risposte istantaneamente”.
Nel suo modo di funzionare e rispondere alle domande il macchinario utilizzava delle “separazioni lineari” nella logica dei concetti, in modo da scomporre i problemi e arrivare a una semplificazione dei ragionamenti.
L’elaborazione del pensiero scientifico attorno al modo di far affrontare a delle macchine il processo del ragionamento logico ha portato poi a elaborare negli anni 90 un ulteriore passaggio concettuale legato alla risoluzione del problema “sì/no”. Sono stati i primi esempi di una “intelligenza artificiale” e già a quel punto suscitava una certa preoccupazione.
Come oggi ancora succede. Non dobbiamo però dimenticare che molte delle attività che già oggi svolgiamo normalmente nella nostra interazione con i dispositivi digitali è basata sull’IA: ad esempio la capacità dei nostri programmi di posta elettronica di distinguere tra messaggi utili e messaggi di spam, l’uso dell’impronta digitale o del riconoscimento facciale per accedere al telefono, le previsioni del tempo, sono tutte attività regolate da modelli di intelligenza artificiale.
Il cammino della ricerca è stato difficile, si apriva un nuovo mondo, fino a giungere a un nuovo salto concettuale con il concetto di “scalabilità”, che permette di operare con un ordine di grandezza inferiore nel numero dei parametri, con algoritmi capaci di riconoscere le lettere dell’alfabeto e i numeri.
Noi percepiamo il mondo e costruiamo delle elaborazioni che ci permettono di identificarlo, costruendo delle categorie di base. Le macchine cercano di operare con concetti che si possono astrarre e decifrare, in modo da identificare le specificità.
Sono processi che, peraltro, possiamo osservare nell’apprendimento dei bambini o degli animali, nella loro interazione con il mondo, e permettono all’algoritmo di elaborare informazioni tratte da moltissime categorie in modo che siano sufficienti a generare una risposta. Più sono i dati forniti all’algoritmo, più esso sarà in grado di estrapolare una risposta per comprendere la situazione.
Questo modo di estrarre informazioni dalla realtà è sempre più usato dalle aziende e dalle industrie. Gli elementi fondamentali di questo processo sono tre: il numero dei dati, la qualità dell’hardware e il tipo di algoritmi. Sono questi a garantire e favorire lo sviluppo.
Per quello che riguarda la situazione attuale: ci si pone la domanda su che effetto avrà, cosa significherà l’uso dell’IA nella nostra società. Le risposte emotive sono molte. Meglio guardare ai dati. Cosa significa introdurre questa tecnologia nel mondo del lavoro? È importante guardare ai dati e poi trarre conclusioni concrete da questa osservazione. Una ricerca specifica ad esempio mostra che nelle reazioni di operatori di un servizio di informazioni di un call center l’introduzione dell’assistente IA ha generato una risposta più efficace ai clienti. I problemi sono stati identificati e risolti più facilmente e con maggiore soddisfazione del cliente. Anche gli operatori meno capaci sono stati in grado di fornire un servizio utile.
Applicata in modo corretto, l’IA non produce quindi una sostituzione del lavoro umano ma un miglioramento: automatizzando dei compiti si migliora la qualità del servizio.
Altre ricerche indicano che chi voglia implementare l’IA per sostituire i compiti umani deve tener conto di un investimento iniziale molto alto per l’addestramento dei sistemi, mentre poi sul lungo periodo si gioverà di una riduzione dei costi. Esistono però d’altro canto aziende dove le capacità umane sono essenziali (ad esempio la raccolta delle nocciole o la produzione del vino in Piemonte) e non possono essere sostituite. A certi livelli, in altre parole, non è possibile una concorrenza diretta tra i due sistemi.
Laddove esiste invece una infrastruttura già pronta e attiva (molti lavori che avvengono negli uffici dispongono già di postazioni con computer da cui è possibile accedere a ChatGPT) l’implementazione dell’IA è già possibile oggi.
Attenzione comunque agli effetti di una comunicazione troppo emotiva: l’adozione dell’IA dove non c’è infrastruttura tecnologica non è possibile. Adottare un’infrastruttura per l’adozione dell’IA costa moltissimo.
Bisogna però poi misurarsi con problemi correlati di grande rilevanza, tra cui il riscaldamento globale, a cui contribuisce la necessità di raffreddare con acqua i grandi centri di calcolo. Questo è un tema fondamentale da tenere in osservazione: occorre usare questa leva in occasione della discussione attorno alla creazione di nuovi centri di calcolo.
Il settore si sta sviluppando molto velocemente, agli stessi addetti ai lavori occorre correre per mantenersi al passo con l’attualità. L’insediamento di Trump è stato seguito a breve giro di posta dall’annuncio che gli USA avrebbero investito 500 miliardi di dollari nel settore. Ciò dimostra che l’America vuole sostenere questo sviluppo, un messaggio dato con estrema forza: la nazione vuole rimanere leader in questo campo. La risposta della Cina è stata rapidissima e sensazionale: voi investite 500 miliardi? E noi ce la facciamo con 5 milioni. DeepSeek sembra aver sconvolto il concetto di investimenti legato al settore, ma probabilmente si tratta di una tecnica di generazione dei contenuti diversa, che si fonda soltanto su un lavoro di superficie nella scrematura dei dati. A fronte del grande lavoro di programmazione “fondazionale” compiuto dai sistemi di IA già funzionanti, che si basano su un numero enorme di parametri, DeepSeek usa solo una parte di quel patrimonio, sfruttando peraltro molto lavoro compiuto in un contesto Open Source. Questa stessa modalità di lavoro, in tal modo, viene messa in discussione.
Questo è un discorso molto particolare da affrontare. L’Open Source è associato generalmente a un atteggiamento positivo e neutrale di condivisione generale dei risultati della ricerca, ma di fatto è un modello sfruttato dalle grandi imprese che lo usano come bacino da cui estrarre poi conoscenze usate in contesti commerciali. È una specie di grande e gratuito mercato di beta test, che finisce poi per diventare uno svantaggio tecnologico per alcune aziende, quando ad esempio viene utilizzato da concorrenti, come nel caso di DeepSeek.
Si apre qui un discorso di ordine geopolitico, perché dietro l’uso di queste tecnologie ci sono decisioni politiche ed economiche da parte dei governi, interessi in gioco non sottovalutabili.
In conclusione, vale la pena di considerare sempre la sintesi contenuta nella cosiddetta “Legge di Amara”: “Sovrastimiamo gli effetti di una nuova tecnologia a breve termine, ma la sottostimiamo a lungo termine”.
L’augurio finale è che ci si possa mantenere obiettivi e osservare il fenomeno in modo razionale, con tutti suoi effetti, senza farsi influenzare solo dalle paure.
Al termine della conferenza, dopo molte domande da parte di un pubblico attento, interessato e partecipe, Andrea Emilio Rizzoli, direttore dell’IDSIA (Istituto Dalle Molle di Studi sull’Intelligenza Artificiale, USI-SUPSI) e membro della Giuria Möbius, ha proposto la sua laudatio alla quale è seguita la consegna a Barbara Caputo del Grand Prix Möbius 2024 per l’intelligenza artificiale al servizio della società e del relativo diploma d’onore da parte del vicepresidente della Fondazione Möbius Ivano Dandrea e del direttore della Fondazione Alessio Petralli.
Resoconto di Alessandro Zanoli