Il teatro delle macchine pensanti. 10 falsi miti sull’intelligenza artificiale e come superarli Roma, 10 settembre 2025 – Viviamo in un’epoca in cui l’Intelligenza Artificiale è entrata nel discorso pubblico con una forza senza precedenti. La troviamo nei titoli dei giornali, nei convegni, nelle agende politiche e nei racconti di futuri possibili. Ma quanto davvero comprendiamo l’IA? E soprattutto: quali idee guidano il nostro modo di pensarla, usarla, temerla o celebrarla?
Nel suo nuovo libro “Il teatro delle macchine pensanti - 10 falsi miti sull’intelligenza artificiale e come superarli”, edito da Digital Transformation Institute e disponibile a partire dal 10 settembre, Stefano Epifani smonta dieci tra i più diffusi falsi miti sull’Intelligenza Artificiale, costruendo un percorso lucido, documentato e accessibile a chiunque voglia avvicinarsi a questo tema senza cadere nella retorica.
Il titolo non è casuale: il
“teatro” non è solo metafora, ma una chiave di lettura critica.
L’Intelligenza Artificiale, oggi, è spesso presentata come un personaggio
dotato di volontà, coscienza, potere. Un attore a cui attribuiamo ruoli mitici
– salvatore, distruttore, giudice, oracolo – proiettando su di esso aspettative
e paure. Epifani invita il lettore a guardare invece dietro le quinte e
a rimettere nella giusta prospettiva il discorso sull’IA, smontando
miti, svelando ambiguità, ma soprattutto recuperando consapevolezza. Questo libro è prima di tutto un testo civile
e culturale, pensato per innovatori, professionisti, manager, comunicatori,
docenti e per chiunque si trovi, oggi, a dover ragionare sull’impatto dell’IA
nella vita quotidiana e nel futuro della società, con l’obiettivo di offrire
strumenti per orientarsi in un campo dove la complessità viene spesso nascosta
dietro narrazioni accattivanti o allarmistiche. “Si
tratta di un saggio nato dal desiderio di affrontare il tema dell’Intelligenza
Artificiale restituendo all’IA il suo status reale: non soggetto senziente, ma
interfaccia statistica. Non mente autonoma, ma sistema predittivo. Non entità
neutra, ma tecnologia modellata da chi la crea, da come la si racconta e da chi
decide come usarla”, spiega Stefano Epifani. “Il
mio intento è stato quello di interrogarmi, e interrogare, sul modo in cui
parliamo di IA, sulle narrazioni che la circondano, sulle metafore che la
spiegano (e talvolta la deformano), e su come tutto questo condizioni il nostro
sguardo sulla società, sul futuro, e su noi stessi. I miti sull’IA, tanto
quelli utopici quanto quelli distopici, producono disinformazione e passività”,
conclude l’autore. “Ci impediscono di vedere le questioni vere:
discriminazioni algoritmiche, concentrazione di potere, mancanza di
trasparenza, esclusione sociale”. Il libro, disponibile dal 10
settembre su tutte le principali piattaforme digitali, oltre che sul sito dello
stesso autore https://book.sostenibilitadigitale.it/macchine-pensanti/,
si articola in dodici capitoli,
dieci dei quali sono dedicati a un falso mito particolarmente radicato
nel dibattito pubblico. I 10 falsi miti sull’Intelligenza
Artificiale I falsi miti sull’Intelligenza
artificiale non sono solo errori concettuali: sono dispositivi narrativi che
orientano immaginari, scelte politiche e comportamenti collettivi Falsi miti Cognitivi 1. L’Intelligenza Artificiale è
intelligente come un essere umano “(…) Ciò che oggi chiamiamo
intelligenza artificiale è tutto tranne che intelligente, almeno nel senso umano
del termine. Eppure continuiamo a chiamarla così, perpetuando una narrazione
che sposta il focus dalla realtà dei fatti alle suggestioni dell’immaginario
collettivo (…) Le IA, oggi, non sono intelligenti: simulano l’intelligenza, la
mimano con impressionante coerenza linguistica, ma restano prive di
comprensione, di intenzionalità, di consapevolezza. Tuttavia, appaiono
intelligenti. Il problema (…) risiede nella nostra inclinazione – profondamente
umana, e forse inevitabile – a interpretare quelle capacità secondo categorie
che ci appartengono: quelle dell’intenzionalità, della coscienza, del
pensiero.” 2. L’Intelligenza Artificiale funziona
come il cervello umano “(…) Quando parliamo di reti neurali
artificiali, ci troviamo di fronte a una delle analogie più ingannevoli della
storia della tecnologia: quella che paragona il cervello umano a una macchina
computazionale. Ma davvero siamo disposti a pensare che il pensiero sia
riducibile ad un algoritmo e la coscienza ad una somma di nodi? (…) Invece di
spiegare le reti neurali per quello che sono, si è preferito raccontarle come
cervelli in miniatura. Una versione da romanzo di fantascienza, insomma, con
tutti i limiti del caso”. 3. L’Intelligenza Artificiale ha le
allucinazioni “(…) Il fenomeno che chiamiamo “allucinazione”,
nei modelli generativi di IA, consiste nella produzione di contenuti che
appaiono plausibili ma che, a un’analisi più attenta, risultano del tutto
inventati, infondati, o semplicemente falsi. Il modello, in sostanza, dice cose
che sembrano vere ma non lo sono. L’IA non mente, non inganna, non delira.
Semplicemente sbaglia. Ma lo fa in un modo tanto convincente da trarre in
inganno. E allora, per spiegare l’inganno, ricorriamo ad un termine mutuato
dalla psicologia clinica: allucinazione, un fenomeno intimo, soggettivo, che
presuppone – guarda caso – un soggetto. Una mente. Una coscienza. Una qualche
forma di interiorità insomma. Applicato a un sistema di IA, la cui interiorità
è analoga a quella di una lavatrice, questo termine è una forzatura semantica,
se non un errore concettuale vero e proprio”. Falsi miti Operativi 4. L’Intelligenza Artificiale è
infallibile “(…) L’algoritmo, come un oracolo,
parla una lingua arcana che pochi sanno tradurre, e proprio per questo viene
preso come verità. (…) Questo meccanismo si innesta su un bias profondamente
radicato: il pregiudizio di autorità algoritmica. Se un numero ci dice
qualcosa, dev’essere vero (…) A rafforzare questo mito contribuisce una
narrazione economica precisa, costruita con cura anche e soprattutto da chi ha
interesse a promuovere l’IA come uno strumento impeccabile. L’industria della
tecnologia ha bisogno che crediamo nell’efficienza automatica: meno margine
d’errore significa più fiducia nel prodotto, e più fiducia significa più adozione.” 5. L’Intelligenza Artificiale è
imparziale (…) Il falso mito della neutralità
delle macchine affonda le sue radici in una visione della tecnica come garanzia
di razionalità e imparzialità. Già nel XVII secolo Leibniz, matematico e
filosofo tedesco precursore del pensiero computazionale, immaginava un calculus
ratiocinator capace di risolvere ogni disputa umana attraverso un linguaggio
logico universale (…) Davvero i dati parlano da soli? O, più propriamente,
siamo noi a decidere cosa debbano dire? E in questo caso: su quali basi, con
quali assunzioni? Non esistono dati “puri”: ogni dato è selezione, ogni
algoritmo è progettazione, ogni output è costruzione. La neutralità algoritmica
non è altro che un artefatto narrativo”. Falsi miti Simbolici 6. L’Intelligenza Artificiale ha
intenzioni proprie e si ribella “(…) Il bisogno di immaginare una
tecnologia che prende vita e si ribella non nasce da una valutazione tecnica
della sua pericolosità, ma da un conflitto interiore: è una proiezione
culturale e psicologica delle nostre insicurezze più profonde (…) A ben
guardare, ciò che oggi temiamo non è l’IA in quanto tale, ma il suo simulacro:
una rappresentazione alimentata da decenni di fiction, da copertine
sensazionalistiche, da dichiarazioni catastrofiste. L’effetto di questa
narrazione è tangibile e devastante: secondo i dati dell’Osservatorio per la
Sostenibilità Digitale, nel 2025 quasi tre italiani su quattro sono spaventati
dall’IA e quasi la metà ritiene addirittura che essa possa minacciare la sopravvivenza
dell’umanità (…) Emblematica è una vecchia iniziativa del Parlamento Europeo,
che nel 2017 suggeriva lo status giuridico dei robot, ipotizzando per essi
diritti e doveri”. Falsi miti Sistemici 7. L’Intelligenza Artificiale è una
tecnologia come le altre “(…) L’idea che l’Intelligenza
artificiale sia una tecnologia come le altre – neutra, prevedibile, regolabile
con strumenti tradizionali – è uno dei più insidiosi falsi miti della
contemporaneità. (…) Se l’IA è una tecnologia come le altre, allora possiamo
trattarla con gli strumenti normativi, cognitivi e politici che abbiamo sempre
usato. Ma l’IA è diversa. Perché osserva, prevede, rappresenta. E nel farlo,
modifica le condizioni stesse della nostra capacità di conoscere e decidere. 8. L’Intelligenza Artificiale ci ruberà
il lavoro “(…) L’IA non ruba lavoro. È la nostra
incapacità di ridisegnarne il perimetro a renderla un rischio. Solo una parte
delle attività lavorative è realmente automatizzabile: la maggior parte dei
mestieri, infatti, è composta da attività molteplici e complesse, e solo alcune
di queste sono realmente replicabili da una macchina. Ma ogni volta che una
macchina svolge un compito meglio di noi, siamo tentati di pensare che il nostro
intero ruolo sia superato. È il paradosso della rappresentazione: ciò che l’IA
simula diventa, per molti, ciò che sostituisce (…) Il falso mito secondo il
quale l’intelligenza artificiale spazzerà via il lavoro umano non è soltanto
epistemologicamente infondato: è, prima ancora, culturalmente disorientante e
politicamente pericoloso”. 9. L’Intelligenza Artificiale è
insostenibile per l’ambiente “(…) Il mito dell’insostenibilità
dell’intelligenza artificiale ha attecchito grazie a una narrazione tanto
seducente quanto riduttiva: quella che, semplificando, confonde singoli dati di
consumo con giudizi assoluti su una tecnologia (…) Quando discutiamo
dell’impatto ambientale dell’IA, infatti, dobbiamo evitare il rischio di
guardare solo al consumo diretto di energia. La domanda giusta da porsi non è
semplicemente “quanto consuma”, bensì “quale sarebbe il consumo necessario per
quel particolare processo se non ci fosse l’IA” In altri termini, è necessario
confrontare l’energia impiegata con quella che l’assenza della tecnologia
renderebbe inevitabile. Falsi miti regolativi 10. Serve un’etica per l’Intelligenza
Artificiale (…) Nel tempo in cui si delega alla
macchina il compito di dire cosa è giusto, l’“etica dell’IA” è diventato un
mantra rassicurante quanto ingannevole (…) non sorprende che Papa Leone XIV,
già nei suoi primi interventi dopo l’elezione, abbia richiamato la necessità di
una “regolamentazione etica” dell’intelligenza artificiale, e che già Papa
Francesco avesse sottolineato, prima di lui, che l’IA dovesse servire l’essere
umano e non sostituirlo: «funziona ... per il bene degli esseri umani, non per
diminuirli o sostituirli» (…) È proprio qui che si annida il paradosso:
invocare una regolamentazione etica per qualcosa che, per definizione, è privo
di coscienza, rischia di spostare il peso del giudizio morale dall’uomo alla
macchina”. **** Informazioni su Stefano Epifani: Stefano Epifani è uno dei principali
esperti italiani di trasformazione digitale e sostenibilità. Fondatore e
presidente del Digital Transformation Institute – Fondazione di ricerca per la
sostenibilità digitale, ne dirige le attività con un approccio che coniuga
rigore scientifico e impegno civile. Giornalista, keynote speaker e
docente universitario, negli ultimi anni ha insegnato Internet Studies alla
Sapienza di Roma e Sostenibilità Digitale all’Università di Pavia. Attualmente
insegna Intelligenza Artificiale per la Corporate Communication. Ha insegnato
anche all’estero, presso la Grenoble École de Management in Francia e l’EAFIT
di Medellín, in Colombia. Ha lavorato in Nazioni Unite come
referente in America Latina di progetti legati alla trasformazione digitale e
allo sviluppo urbano sostenibile, collaborando con istituzioni, governi e
centri di ricerca. È autore del saggio Sostenibilità
Digitale: perché la sostenibilità non può fare a meno della trasformazione
digitale (2020), tradotto in inglese e spagnolo, con oltre 15.000 copie
vendute. Figura di riferimento nel dibattito
italiano sull’innovazione, è attivo come conferenziere in Italia e all’estero,
promuovendo una cultura digitale più consapevole, inclusiva e orientata al bene
comune. |