L’intelligenza artificiale non è per forza tua amica. Otto domande di Sebastiano Zanolli a proposito del libro ‘Splendori e miserie delle intelligenze artificiali’. Newsletter Linkedin ‘La Grande Differenza’, 21 luglio 2024


Non è facile pensare e tantomeno scrivere. Ci sono anche cose di cui si preferirebbe non parlare, nemmeno con sé stessi. E se non si ripete a pappagallo quello che hanno già detto altri, si sente il peso della solitudine. Resta sempre il dubbio di non aver ben articolato gli argomenti; di non aver offerto un buon servizio al lettore.
In realtà un libro è il dialogo con un lettore disposto a farsi domande.
Grazie quindi a Sebastiano Zanolli per le sue domande. E per questa sua sintesi, che non avrei saputo scrivere con questa chiarezza:

– Il libro è per chiunque voglia pensare con la propria testa, spiegando concetti complessi in modo chiaro e comprensibile, senza bisogno di competenze tecniche avanzate.
– Il libro sfida la visione utopica delle tecnologie digitali, mettendo in guardia contro il cosiddetto “Paradiso tecnologico” e invitando a una valutazione critica e equilibrata delle intelligenze artificiali.
– Varanini sottolinea l’importanza di valorizzare l’esperienza umana, guardando oltre i dati e gli algoritmi, e mantenendo vivo il pensiero critico e la cultura aziendale in un contesto sempre più digitalizzato.
– Non come un manuale tecnico, ma come un viaggio riflessivo su chi siamo e su come possiamo rimanere umani in un mondo sempre più dominato dalle tecnologie.

L’intervista appare sulla newsletter Linkedin La Grande Differenza, 21 luglio 2024

Qui per iscriversi alla Newsletter

Riporto di seguito il testo dell’intervista.

Otto domande a Francesco Varanini sul suo ultimo libro

Francesco, quanto è accessibile il tuo libro Splendori e miserie delle intelligenze artificiali per i non esperti?

Splendori e miserie delle intelligenze artificiali si rivolge alle persone che hanno ancora voglia di pensare con la propria testa. Si rivolge a tutti coloro che capiscono non è tutto oro quello che luccica, e che vogliono capire. Si rivolge a coloro che intuiscono contraddizioni, vedono pericoli, hanno dei dubbi e dei timori, ma magari si vergognano anche a dirlo, perché non si considerano ‘esperti’…

Credo sia fuorviante distinguere tra ‘esperti’ e ‘non esperti’. Esistono persone che si impegnano nel pensare. Ed esistono persone che per gli effetti di una cattiva educazione e di una insistente propaganda che impone un falso pensiero bell’e pronto, tendono non fidarsi della propria capacità di pensare. Si affidano così ad ‘esperti’: ma gli ‘esperti’ spesso abusano della propria autorità, parlando come esperti di cose di cui non sono esperti; e poi gli ‘esperti’ sono in realtà portatori di interessi personali: il loro successo professionale dipende dal fatto che i cittadini accettino le cosiddette intelligenze artificiali a scatola chiusa, senza porsi troppe domande.

Considerando che l’IA è argomento complesso, riesci a spiegare i concetti chiave in modo comprensibile anche per chi non ha una formazione tecnica?
Non è così difficile spiegare di cosa si tratti. Quello che spesso manca è la volontà di spiegare. Giova a chi ha interessi da difendere il mostrare le cosiddette intelligenze artificiali come qualcosa di esoterico, comprensibile solo dagli ‘esperti’, dai ‘tecnici’. I tecnici, poi, sono specializzati in un singolo campo. A loro manca la visione generale. Più precisamente si può dire che, con tutto il rispetto loro dovuto, i tecnici digitali sono specializzati nel parlare alle macchine, non nel parlare ai cittadini del modo in cui funzionano le macchine. Se i tecnici non sono in grado di guardare oltre i confini della propria disciplina, a porre in luce le interrelazioni e la complessità dovrebbero essere i filosofi. Ma -come mostro in un capitolo del mio libro- i filosofi, salvo eccezioni, hanno rinunciato a questo ruolo. Non c’è più la filosofia: l’interrogarsi su cosa voglia dire ‘essere umano’, l’amore per la conoscenza, lo spirito critico, la saggezza. C’è solo una filosofia ancella della tecnica: la filosofia dell’informazione, la filosofia dell’intelligenza artificiale, la filosofia della mente, la filosofia delle neuroscienze…

Quando nella tua domanda mi dici:“comprensibile anche per chi non ha una formazione tecnica” sembra quasi che tu dubiti della possibilità di capire. Sembra quasi che consideri necessario e irreversibile l’affidamento a chi è dotato di “una formazione tecnica”. Non è così!

Dobbiamo tornare a pensare e ad agire fidandoci di noi stessi, dobbiamo tornare a dar valore alla nostra storia personale, alla nostra esperienza – in questa storia e in questa esperienza stanno le chiavi per comprendere il senso profondo di qualsiasi questione tecnica…

Questo è ciò che mostro con il mio libro. E sono convinto che a te, leggendolo, sia venuto in mente un pensiero: ‘ma allora, più che da imparare dai tecnici, ho molto da insegnare loro’.

Sì va bene, ma non hai risposto alla domanda. Dimmi in modo comprensibile: cosa è l’IA?

Insisto fin dove possibile nel non usare sigle e nel dire: ‘cosiddette intelligenze artificiali’.

Insisto nello scrivere in minuscolo e nell’usare il plurale. Per sottolineare che sotto questa espressione-ombrello -intelligenza artificiale- vengono oggi messe insieme tecniche informatiche diverse. Fino a qualche anno fa ognuna aveva il suo nome, ma ora è comodo riassumere tutto all’ombra di queste due immaginifiche parole.

E sottolineo il ‘cosiddette’, perché in effetti il termine già in origine non esprimeva nessuna precisione tecnica. Fu coniato con un unico scopo: colpire la pubblica immaginazione. Favorendo così la raccolta di fondi della ricerca e l’ascesa sociale dei cultori di una nuova disciplina: la computer science.

Potrei darti qui, anche in brevi parole, una definizione tecnica. Potrei parlarti di algoritmi, di come funzionano le macchine. Nel libro ovviamente ne parlo.

Ma preferisco dirti in sintesi, prescindendo dagli aspetti tecnici. Le intelligenze artificiali sono macchine progettate per operare indipendentemente dagli esseri umani, e per autosupervisionarsi nel loro funzionamento e nel loro sviluppo.

Splendori e miserie non è l’ennesimo libro che spiega al popolo, considerato come una massa di ignoranti da istruire, le meraviglie delle nuovissime tecnologie. E’ al contrario un tentativo di risvegliare le coscienze di noi esseri umani, assopite dall’affidamento a macchine sempre più potenti ed autonome.

Quindi, posso aggiungere che, di fatto, le intelligenze artificiali sono macchine progettate per sostituire gli esseri umani, ed imposte agli esseri umani come specchio del proprio modo di essere e come modello di come dovrebbero essere.

Sono macchine per togliere al posto nostro le castagne dal fuoco. Macchine che nel semplificarci apparentemente la vita ci impoveriscono. Macchine che ci spingono a non assumerci responsabilità.

Nel libro, metti in evidenza il concetto di Paradiso tecnologico. Perché ritieni questo concetto pericoloso?

Metto in guardia contro una comoda via fuga: la via di chi sostiene che bisogna lasciar campo libero all’innovazione, perché le tecnologie ci salveranno. Si dice che lo sviluppo tecnologico porterà vantaggi all’umanità tutta, alla vita sulla Terra, al pianeta. Come le prime comunità cristiane credevano nell’avvento del Regno di Cristo in Terra, qualcuno crede ora nella promessa di un eden tecnologico, felice per tutti.

Il primo problema è che in questa promessa c’è ben poco di vero.

Dietro questa narrazione si nascondono gli interessi economici, e di puro dominio, delle grandi case digitali. Si nasconde il fatto che queste tecnologie provocano già oggi, e provocheranno ancor più negli immediati anni a venire, conflitti sociali, perdite di diritti e di lavoro, aggravamento della forbice tra ricchezza e povertà.

I fautori del Paradiso Tecnologico sostengono che nel lungo periodo tutto si accomoderà. Ci sarà energia a basso costo, ci saranno servizi garantiti e cibo sintetico per tutti… Non è affatto detto che si arrivi a questo. Ma se pure ci si arriverà, non si tratta certo di uno scenario auspicabile. E’ lo scenario descritto da Huxley nel romanzo The Brave New World, Il mondo nuovo: un modo dove dietro un’apparente libertà si nasconde una rigida divisione in caste ed un controllo sociale che sradica il pensiero individuale e libero.

Una via di fuga, dicevo, perché è un comodo modo per non assumersi l’onere di governare lo sviluppo dell’industria digitale, qui ed ora. E’ un modo per evitare di fare scelte; di di dire: questo sì, questo no; di ammettere che l’industria digitale provoca gravi danni ambientali…

In che modo possiamo guardare ai limiti reali e le potenzialità delle tecnologie digitali, evitando sia un entusiasmo eccessivo che un pessimismo paralizzante?

Per quanto mi riguarda mi preoccupo sopratutto di contrastare l’entusiasmo eccessivo. Perché mi pare questo l’atteggiamento dominante. In realtà non si tratta di sincero entusiasmo dei cittadini, degli utenti, ma di narrazioni accuratamente costruite dai portatori di interessi, tese a convincere i cittadini ad accettare tutto quello che l’industria digitale propone. In fondo, credo di poter dire, la maggior parte dei libri dedicati ad intelligenze artificiali e dintorni hanno per scopo spargere fiducia. Si dice in fondo: fidatevi di noi esperti, perché voi non sapete. Si dice: osservate la bellezza, la meraviglia di queste novità. Si dice: in ogni caso la storia va in questa direzione, fatevene una ragione.

A me sembra che i rischi di un pessimismo paralizzante siano proprio uno degli argomenti usati dai fautori dei una innovazione digitale acritica. Un argomento usato per annichilire i cittadini ed i lavoratori che, in virtù del loro intuito, del loro senso di realtà, vedono problemi ed hanno dubbi. E spesso si vergognano di dirlo, direi anche: si vergognano per averlo pensato. Perché a nessuno piace essere giudicato retrogrado.

Il mio libro si rivolge in modo particolare a questi cittadini accusati di essere retrogradi. Dico loro: la vostra posizione è la più costruttiva e la più saggia. Allo stesso tempo mi rivolgo a chi è oggi disposto ad affidarsi alle nuove tecnologie digitali senza pensare troppo: invito chi ha questo atteggiamento alla cautela ed alla riflessione.

Propongo quindi concretamente un possibile cammino: non rinviare nel tempo la soluzione dei problemi che già oggi queste tecnologie comportano; non scaricare su di altri l’onere di responsabilità che ognuno, nel suo ruolo, può assumersi.

Hai parlato dell’importanza di guardare oltre ciò che un computer può vedere. Puoi spiegare cosa intendi, e come questo approccio potrebbe influenzare lo sviluppo e l’adozione delle tecnologie IA in ambito aziendale?

Piace oggi offrire a manager, lavoratori, cittadini, l’immagine di una crescente potenza del computer: sempre maggiore potenza di calcolo, fino al raggiungimento della cosiddetta intelligenza artificiale. L’invito è ad affidarsi sempre più alla macchina.

Si dice che il manager deve lasciare via via sempre più compiti al computer. Si sostiene che gli

algoritmi aiutano i decisori a risparmiare tempo perché automatizzano le decisioni ad alta frequenza e basso impatto. Ciò aumenta, si dice, l’opportunità di dedicare tempo e sforzi cognitivi a decisioni strategiche a bassa frequenza ed alto impatto.

A questa proposta è facile rispondere che è impossibile definire a priori quali sono le decisioni strategiche più importanti. Perché le decisioni più importanti sono le risposte a fenomeni emergenti, imprevedibili.

L’algoritmo opera sui dati: i dati non descrivono mai in modo esaustivo la realtà. L’algoritmo non è che una procedura basata su un modello. Il modello, per definizione, non è in grado di prevedere ogni possibile evento. L’algoritmo, quindi, non è in grado di rispondere ad eventi catastrofali, o anche semplicemente a necessità di intervento che vengono alla luce, agli occhi del manager, visitando di persona lo stabilimento produttivo, il magazzino, o parlando con i clienti.

Fidandomi della macchina rischio di non vedere ciò che di nuovo ed importante accade. Inoltre, abituandomi ad affidarmi alla macchina, lascio decadere nel tempo la mia stessa capacità di vedere.

Affermi che la cultura digitale debba essere decostruita per osservarne le miserie. Puoi fornire esempi concreti di come questa decostruzione possa avvenire nella pratica quotidiana di un’azienda tecnologica?

Per essere precisi, non uso il uso il verbo decostruire nel testo del libro; lo uso, in un tentativo di sintesi forse fuorviante, nel risvolto di copertina. Intendo semplicemente dire: leggere criticamente, non lasciarsi incantare dalla propaganda e della più comune delle affermazioni: ‘queste tecnologie sono arrivate per restare’. Come a dire: dobbiamo accettarle per forza; dobbiamo adattarci. Non credo sia così. Penso che sia possibile, o anzi, spero, probabile, che tra cento o duecent’anni ci guarderemo indietro e diremo: oh come eravamo insensati quando pensavamo conveniente affidare i compiti più difficili a macchine in più possibile indipendenti da noi!

Nella pratica quotidiana di ogni azienda, tecnologica o non tecnologica, questo vuol dire innanzitutto scegliere oculatamente i modo di formare le persone a vivere la trasformazione digitale. Il modo comune è insegnare l’adattamento: insegnare ad usare passivamente ogni nuovo strumento prodotto da tecnologi lontani dalla vita della singola azienda, dalla sua cultura, del suo business.

C’è un modo differente: mostrare i limiti degli strumenti, i loro rischi, insegnare come mantenere viva la cultura aziendale, e gli spazi di libertà individuali, nonostante la presenza di strumenti digitali che tendono ad imporre una uniformazione universale.

Sostengo nel libro che questa formazione ‘a rovescio’ serve nelle aziende. E serve ad ogni cittadino, per mantenere vivi il senso di responsabilità ed il libero arbitrio, per non essere ridotto a utente passivo di servizi preconfezionati.

Un’ultima domanda. Una curiosità personale. Il sottotitolo del libro aggiunge una precisazione che sembra significativa: alla luce dell’umana esperienza. Mi sembra tu parli dell’esperienza soggettiva, dell’esperienza che ogni persona fa ‘sulla propria pelle’, interagendo con le macchine digitali, con le intelligenze artificiali in particolare…

Sì, è proprio così. La cultura tecnico-scientifica spinge a guardare le cose, a osservare il mondo, nel modo più oggettivo possibile. Le idiosincrasie, gli aspetti distintivi di una persona, la sua cultura e i suoi valori sono considerati difetti. Ma questa è proprio la via che ci porta ad essere sempre più simili a macchine, ad intelligenze artificiali.

Siccome il mio intento è ricordarci chi siamo, riscoprire spazi per noi stessi, noi umani, in questo contesto dove le macchine digitali sono presenti, allora il punto di partenza sta proprio nel narrare le esperienze personali. E così racconto di come mi sono sentito quella volta in cui ho interagito con Chat GPT a proposito di un argomento che mi stava veramente a cuore.

Siamo spinti a considerare rilevante solo a ciò che è codificabile, computabile. Ma così buttiamo via una parte significativa della nostra storia, dei nostri valori. Ci sono cose che riusciamo a dire solo attraverso narrazioni lontanissime dalla codifica digitale. Uno dei capitoli del mio libro è scritto in versi, è una poesia. Non è un gratuito esercizio. Solo così riuscivo a dire certe cose. Un altro capitolo è una lettera personale ad un esperto che stimo al di là delle differenze di posizione.

Il mio libro è un invito a continuare ad essere noi stessi, appunto dando valore alle nostre esperienze, evitando di farci ‘dettare l’agenda’ da intelligenze artificiali.