Domande e risposte a margine della presentazione del libro ‘Splendori e miserie dell’intelligenza artificiale’ nel ciclo #OpenAIF, 31 maggio 2024


Nel corso dell’incontro online del ciclo #OpenAIF, 31 maggio 2024, dedicato al mio libro Splendori e miserie delle intelligenze artificiali. Alla luce dell’umana esperienza, Vivaldo Moscatelli, l’organizzatore del ciclo, che ancora ringrazio, mi ha posto, all’inizio, domande che hanno portato le mie riflessioni, e le conseguenti ulteriori domande, in una direzione che ha finito per lasciare da parte altre domande – che Vivaldo Moscatelli, nel preparare l’incontro, aveva pensato di pormi.

Per seguire l’incontro, così come si è svolto, basta iscriversi a #OpenAIF. Verso la fine dell’incontro, mi sono impegnato a rispondere alle domande non poste in quella occasione. Penso che queste mie risposte siano state inserite sul portale di #OpenAIF. Comunque eccole qui.

Importanza del contesto storico e delle vicende personali
Come valuti le differenze fondamentali tra il modo in cui gli esseri umani apprendono e il modo in cui le macchine, come i modelli di intelligenza artificiale, acquisiscono e processano le informazioni?
Il tuo modo di porre la domanda suggerisce che si possano porre sullo stesso piano due modi apprendere, e confrontarli. Non sono d’accordo. La prima domanda che mi pongo, a proposito di questa comparazione è questa: perché noi umano sentiamo il bisogno di confrontarci con una macchina? Perché ci piace confrontarci con una macchina?
Scegliamo di confrontarci con una macchina a causa di una scarsa autostima, o consapevolezza di chi siamo. Oberati dal peso delle nostre responsabilità, delle difficoltà che ci troviamo ad affrontare, ci piace immaginare possibile scaricare su una macchina questo peso.
Invece, penso che ci competa farci carico delle nostre responsabilità. Certo in questo le macchine possono esserci di aiuto, ma solo come è di aiuto uno strumento nelle nostre mani.
Penso quindi che se ormai usiamo il termine ‘apprendimento’, o ‘learning’, per definire qualcosa di riferito ad una macchina, dovremmo smettere di usare queste stesse parole per qualcosa che si riferisce a noi umani.
Detto questo, non considero tanto importante ricordare una volta di più come funziona il Machine Learning, e la sua evoluzione, Deep Learning. Mi importa semmai tornare a riflettere oggi, nel contesto storico in cui ci troviamo, quell’umanissimo ambito che è descritto dalle parole‘educazione’: portare fuori, partorire; ‘esperienza’: ‘provare’, ‘tentare’, ‘sperimentare’; ‘conoscenza’: passaggio da ‘ignarus’ a ‘gnarus’, condivisione di ‘narrazioni’. Di questo siamo chiamati ad occuparci noi formatori. Ricordando sempre che possiamo pensare di ‘educare’ gli altri solo se abbiamo prima posto attenzione ed impegno nell”educare’ noi stessi.

Guardare ai tempi digitali alla luce della storia
Nel tuo libro, sottolinei come l’esperienza umana evolva continuamente  e non possa essere completamente sostituita dai dati raccolti dalle macchine.
Provo a citare “non c’è futuro senza consapevolezza del passato: la storia è un antitodo e non sempre è progresso ciò che ci viene presentato come tale…”
Come possiamo utilizzare la storia come strumento per interpretare e gestire meglio le trasformazioni digitali del presente e del futuro?
La storia ci insegna appunto a non isolare, a non osservare un aspetto alla volta. Le trasformazioni digitali sono solo alcune delle trasformazioni che stiamo vivendo in questo momento storico. La trasformazione digitale che stiamo vivendo in questi ultimi anni non è nemmeno l’unica delle trasformazioni digitali possibili. La trasformazione digitale legata al personal computer, a Internet, al Web, era una trasformazione digitale molto più costruttiva, per noi umani, della trasformazione digitale legata all’Intelligenza Artificiale. Non c’è continuità tra questi due sviluppi. Anzi, c’è una profonda discontinuità. Nel primo caso si ampliano gli spazi di libertà per l’essere umano. Nel secondo caso si propone una possibile sostituzione dell’essere umano.
La storia ci mostra anche lo stretto legame tra gli interessi di un capitalismo finanziario e speculativo e la proposta dell’Intelligenza Artificiale….

Limite implicito nel concetto di computazione
Nel libro affronti i limiti impliciti nel concetto di computazione.
In che modo queste limitazioni influenzano la nostra capacità di affrontare problemi complessi che richiedono un approccio più intuitivo e umano?
E come possiamo bilanciare l’uso delle tecnologie digitali con la necessità di preservare l’unicità dell’esperienza umana?
La computazione, da un punto di vista matematico e logico-formale, è la risposta di Turing alla dimostrazione, da parte di Gödel, dell’incompletezza di ogni sistema e dell’inesattezza di ogni calcolo. La crescente disponibilità di memoria e capacità di calcolo non cambiano questa situazione: le macchine digitali si limitano a computare. C’è quindi un intrinseco limite originario nelle macchine digitali. Questo non impedisce che, per una qualche via, queste macchine arrivino ad avere comportamenti incomprensibili per noi umani. Questo è un rischio di fronte al quale non abbiamo al momento contromisure.
Cosa conviene fare a noi umani? Non certo, come molti propongono, prendere a modello le macchine digitali, specchiarci nei nostri ‘gemelli digitali’. Ci conviene cercare con più profondità, con più ampiezza il nostro ‘essere umani’. Turing aveva fondato il suo tentativo di immaginare una macchina capace di imitare il pensiero umano su una definizione riduttiva del pensiero. Ci conviene al contrario dar valore alla straordinaria ampiezza di ciò che è il pensare umano. Basta ricordare i verbi latini che cercano di descriverne i diversi aspetti:
cogitare: ‘agitare insieme’, dove agitare riprende in modo più intenso il senso del verbo agere, ‘agire’; considerare: ‘essere in sintonia con le stelle’, con l’osservazione del mondo e con le conoscenze che possono guidarci in un certo attimo di fronte a un certo problema; desiderare: ‘essere in sintonia con le stelle anche quando siamo privati della possibilità di vederle’; contemplare: ‘concentrare l’attenzione su una certa porzione del cielo stellato’; pensare: derivato da pendere: come ‘il piatto di una bilancia che pesa’; intueri, italiano intuire: ‘vedere dentro’; capere e apprehendere: afferrare la preda.
Importantissimo tenere presente questa ampiezza di senso. Solo allora, se abbiamo tenuto conto di questa ampiezza di senso, se poi vogliamo, possiamo fissare l’attenzione su due verbi.
Putare: ‘potare l’albero’. Di qui viene il computare: se ci facciamo caso il verbo conferma il fatto che la computazione passa per la via della riduzione, della semplificazione: approccio che può essere utile, ma che per definizione tralascia sempre qualcosa.
Intelligere: ‘legere’ significa ‘raccogliere frasche’. Da qui anche ‘leggere’. Inter legere, e quindi intelligere significano: ‘trascegliere’, ‘scegliere tra le frasche raccolte’. Qui è importante notare la sottile ma netta differenza tra inter legere e ex legere. Ex: ‘tirar fuori’, ‘estrarre’. Da qui l’italiano ‘eleggere’, ma anche ‘scegliere’. Ecco, l’unicità dell’esperienza umana sta nella capacità di scegliere. E possiamo anche notare la contiguità tra ex legere e ex ducere, ‘condurre fuori’, educare.

Pericoli impliciti nelle scatole nere
Nel libro evidenzi i pericoli impliciti nelle ‘scatole nere’ delle intelligenze artificiali (sistemi di apprendimento automatico e algoritmi complessi i cui processi interni sono opachi o non trasparenti agli utenti).
Quali sono, secondo te, i rischi più gravi associati a questi sistemi opachi e come possiamo lavorare per garantire maggiore trasparenza e responsabilità nelle tecnologie AI?
Il punto chiave è che le cosiddette Intelligenze Artificiali Generative non sono scatole nere solo perr gli utenti. Lo sono anche per i progettisti. Cioè: volontariamente i progettisti progettano una macchina destinata, oltre una certa soglia, ad autosupervisionarsi nel proprio apprendimento ed ad autosorvegliarsi nel proprio sviluppo. E’ di fronte a questa scelta tecnica, perseguita da loro stessi, che più d’uno dei padri di questa tecnologia si spaventano e si fermano attanagliati da dubbi. Si chiedono: cosa sto facendo. Questi dubbi dei tecnici sono uno dei punti centrali, credo, del mio libro Splendori e miserie delle intelligenze artificiali. Lo dice anche il sottotitolo: di fronte all’umana esperienza. Per fortuna, il tecnico stesso riflette sul senso della propria esperienza, della propria sperimentazione.
Naturalmente, la propaganda che sostiene la diffusione e la necessaria pubblica accettazione dell’Intelligenza Artificiale da poco spazio a queste voci. Ciò non toglie che ci si siano, e sono spesso voci dei più accreditati e stimati computer scientist padri del Deep Learning. Basta citare quello che scrive Yoshua Bengio sul suo blog nell’agosto 2023: Personal and Psychological Dimensions of AI Re- searchers Confronting AI Catastrophic Risks, yoshuabengio.org, 12 August 2023:

“Sto cambiando idea su qualcosa di molto personale: mi chiedo se il mio lavoro, nella sua traiettoria attuale – la corsa a colmare il divario tra l’Intelligenza Artificiale via via più avanzata e l’intelligenza umana – sia allineato con i miei valori. È effettivamente vantaggioso o pericoloso per l’umanità, data l’attuale struttura della società e il fatto che strumenti potenti come l’IA sono a doppio uso, possono essere usati per il bene o per il male? Ora temo che non siamo sulla buona strada e che, per raccogliere i benefici dell’IA ed evitare esiti catastrofici, siano necessari cambiamenti profondi, per comprendere meglio la situazione e mitigare i rischi. (…)
Ora credo di aver sbagliato e di essere stato miope. Penso anche di non aver prestato sufficiente attenzione alla possibilità di perdere il controllo a causa delle IA sovrumane. (…)
La mia preoccupazione è gradualmente cresciuta durante l’inverno e la primavera del 2023.
Sono giunto a una conclusione di fondamentale importanza: non sappiamo ancora come rendere controllabile un agente di Intelligenza Artificiale, e quindi garantire la sicurezza dell’umanità! Eppure stiamo – me compreso fino a ora – correndo avanti verso la costruzione di tali sistemi.
Riuscire ad accettare di aver sbagliato, per noi stessi e agli occhi degli altri, è difficile ma necessario.”

Formazione all’educazione civica digitale
Nel tuo libro, discuti l’importanza di una educazione civica digitale.
Quali sono i principali elementi che dovrebbero essere inclusi in un programma di educazione civica digitale per preparare i cittadini a interagire responsabilmente con le tecnologie AI?
L’educazione civica digitale, che ritengo veramente necessaria, è qualcosa di molto lontano dall’addestramento all’uso. Penso sia necessaria una educazione allo spirito critico. L’affidamento alla macchina che risponde a tutte le domande è l’esatto contrario di questa educazione. E anche la preparazione a non cadere in trappole legati ai limiti, o alle caratteristiche intrinseche di una macchina, è qualcosa di utile, ma limitato, perché parte da una accettazione previa della macchina. Oggi, infatti, grandi investimenti sostengono una educazione tesa ad insegnare ad accettare acriticamente il digitale. Ad usare senza troppo pensare le macchine e gli strumenti, a prendere per buona ogni novità. Questa è domesticazione, addomesticamento, non è educazione. E’ insegnare ad essere utenti.
Dovremmo piuttosto ricordare sempre che la presenza di piattaforme digitali e i suggerimenti di Intelligenze Artificiali ledono il nostro essere cittadini. Ci propongono un abbassamento: da libero cittadino che ha di fronte possibili scelte a utente cui sono imposte scelte obbligate. 
Per questo parlo di educazione civica. Serve diventare cittadini attivi capaci di porsi con saggezza di fronte alle meravigliose e accattivanti novità. Nel mio libro indici cinque passi.
Il primo: imparare a non rinviare nel tempo. Se ci sono problemi, rischi, se ci sono dubbi sulla sostenibilità, il momento per occuparsene è ora. Troppo comodo dire: ce ne occuperemo domani.
Il secondo: non dire ‘se ne deve occupare qualcun altro’. Il tecnologo dice: a noi sta innovare, delle conseguenze e dei rischi se ne deve occupare la politica. Il politico dice: se ne deve occupare l’esperto… Invece: ognuno deve assumersi le proprie responsabilità, anche le responsabilità delle conseguenze. Ogni cittadino è responsabile: responsabile di scegliere se usare o non usare, responsabile di denunciare, responsabile di educare i propri figli…
Il terzo: non nascondere il male dietro al bene. E’ troppo comodo dire: questa tecnologia salva vite umane, nascondendo dietro questo il fatto che la stessa tecnologia, allo stesso tempo, distrugge vite umane: perché può essere usata come arma, perché consuma energia in eccesso…
Il quarto: essere disposti alla conversione. Non dobbiamo vergognarci di amare l’innovazione tecnologica, nemmeno di aver costruito queste macchine. Ma come mostra Yoshua Bengio è importante per tutti avere il coraggio di cambiare idea.
Il quinto: discutere in pubblico di queste cose. Come nel mio piccolo cerco dei fare. Nonostante molti amici mi dicano: sbagli perché così mini la fiducia nell’innovazione. Io rispondo loro: più voi spargete fiducia, lasciando tra parentesi gli aspetti critici e negativi, più io per quello che posso spargo cautela.
Questo atteggiamento di cautela dovrebbe essere fatto proprio innanzitutto dai tecnici. Ma siccome questo -salvo eccezioni- non accade, serve una risposta civile. Serve appunto una educazione civica digitale che insegni a non prendere tutto per oro colato.

Disponibilità all’autocritica ed alla conversione
Ho già risposto, in particolare citando Bengio.

Consigli per Educatori e Formatori
Quali consigli daresti agli educatori e ai formatori per bilanciare efficacemente l’uso dell’intelligenza artificiale con l’importanza dell’interazione umana e della guida personale nel processo formativo?
Ogni educatore ed ogni formatore è innanzitutto un cittadino. Il primo invito che posso rivolgere ad ogni formatore è lo stesso invito che rivolgo ai computer scientist. Non chiudersi nel proprio ruolo di ‘tecnico’, di ‘esperto’ che considera sé stesso ‘fuori dal mondo’.
Quindi il primo punto è, come ho già cercato di dire sopra, ‘lavorare su sé stessi’, cercando la propria educazione, mantenendo viva la consapevolezza della propria ignoranza, e cercando di superarla dando valore alla propria personale esperienza d’uso degli strumenti digitali. Assumendosi responsabilità, facendo scelte a proposito degli strumenti da usare, e del modo di usarli. Siamo sicuri di dominare gli strumenti o ne siamo dominati, o almeno condizionati? O forse ci piace, o ci risulta comodo essere guidati da mezzi tecnici che ci esimono dal compiere scelte?