Etica e IA a partire da Floridi
di Silvia Sacchelli
Il 21 novembre 2025, all’Università IULM di Milano, si è svolto il talk “Pensare con l’IA. Filosofia e società nell’era dell’infosfera” con Luciano Floridi, Mauro Ferraresi, Guido Di Fraia e Riccardo Manzotti.
[Le riflessioni che seguono nascono da quell’incontro e provano a svilupparne i punti chiave, senza farne un resoconto, ma traendo spunti per capire dove siamo e cosa sta cambiando]
Dare il nome giusto alle cose
Aristotele ci ha insegnato che conoscere significa riconoscere le cause. Non basta osservare ciò che accade: dobbiamo capire perché si muove, da cosa è spinto, verso cosa porta. È un invito semplice, quasi ovvio, eppure nella rivoluzione digitale sembra quasi che lo abbiamo dimenticato.
Perché una cosa è certa: non ci siamo fermati. L’avanzata dell’IA è stata continua, quasi senza respiro. E non per fatalità, ma per tre spinte molto umane, ci dice Floridi: la passione per la conoscenza, l’interesse economico e competitivo, e una certa malafede, quella piccola scorciatoia per cui fingiamo di controllare ciò che non controlliamo davvero.
E ora ci troviamo in un punto interessante: non davanti a una nuova tecnologia con cui dobbiamo imparare a comunicare, ma dentro a un nuovo ambiente. Non online, ma onlife. Il digitale non è un altrove, è la continuità del mondo fisico. Quindi ciò che avviene nel digitale ha in realtà delle radici analogiche.
I social, per fare un esempio, non sono una seconda vita: sono la stessa vita, estesa. Per questo, il problema non è il “cyberbullismo”: è il bullismo in sè. Il digitale amplifica ciò che già esiste. Ed è qui che arriviamo al primo punto importante: le parole che scegliamo per definire un fenomeno indicano anche dove mettiamo la responsabilità. In questo senso, ogni scelta linguistica è già una scelta etica.
Il paradosso dell’intelligenza artificiale
Lo stesso accade con la parola “intelligenza”. L’IA che usiamo oggi è, in larga parte, statistica: prevede, correla, ottimizza. Funziona benissimo, ma non comprende. E qui arriviamo al secondo passaggio cruciale: intelligence non significa automaticamente agency. La macchina può produrre un risultato efficacissimo, a volte persino migliore del nostro (intelligence), ma non sa di farlo, non vuole farlo e non risponde delle conseguenze. È un’intelligenza, senza intenzione (agency), il che è in totale contraddizione con l’etimologia stessa del termine intelligenza. Abbiamo parlato di recente nella nostra newsletter Pocherighe #198 – Frammentazione semantica a proposito del debito semantico dato dalla mancata intenzionalità delle parole:
Scrivere senza pensare, parlare senza essere presenti, usare le parole come involucri ben formati, ma vuoti. Tutto questo non solo affatica meno il cervello e quindi lo impigrisce, ma erode il nostro legame con ciò che comunichiamo. Ed è qui che inizia la frammentazione semantica: quando il linguaggio funziona, ma non significa più nulla per chi lo usa.
Questa separazione, questo divorzio come lo chiama Floridi, tra capacità e intenzione, tra ingegneria e biologia, è il vero dilemma di questa rivoluzione. Abbiamo sistemi che “agiscono” senza essere in grado di decidere autonomamente. È qui che nasce il grande vuoto contemporaneo e anche il terzo punto importante: il responsibility gap. Non è un problema tecnico, ma culturale. Ci chiede di ripensare a come distribuiamo l’azione: tra persone, istituzioni, algoritmi.
È fondamentale riconoscere che il controllo del digitale passa dall’analogico, dalle persone, che invece il potere decisionale lo hanno. L’infosfera ha un corpo: server, metalli, acqua, elettricità, persone. La legislazione, qui e ora, mentre ancora stiamo dando le prime gettate di cemento, deve diventare progettazione condivisa. È lo strumento con cui definiamo chi agisce e per conto di chi. Non per limitare l’innovazione, ma per abilitarla in modo responsabile.
In questo quadro, la questione infatti non è temere l’IA, né rallentarne il progresso. Perché ciò che è emerso durante l’incontro è che nessun algoritmo potrà mai sostituire l’inventiva alchemica e sociale dell’essere umano. La capacità di dare senso, di costruire un “noi” dice Ferraresi, di scrivere regole, linguaggi, obiettivi. La computazione può combinare dati. L’umano può deliberare. Può attribuire valore.
Aristotele lo chiamava anagnorisis: il momento in cui si passa dall’ignoranza, alla consapevolezza; in cui coscienti di non poter cambiare i fatti, possiamo cambiare il modo di interpretarli. Siamo lì alla peripeteia. Non dobbiamo rifare il mondo da capo: dobbiamo leggerlo meglio. Dare il nome giusto alle cose. Tracciare confini più chiari. Perché se sbagliamo le parole, sbagliamo la direzione.
È qui che la rivoluzione diventa finalmente pensata.
Ed è qui che il linguaggio torna a essere ciò che è sempre stato: non una descrizione della realtà, ma il primo atto per costruirla.
- On 27 Novembre 2025
