AI, modelli e (meta) metafore
Una riflessione critica tra opportunità e rischi sistemici
La recente, pervasiva diffusione dell'intelligenza artificiale generativa ci pone dinanzi a una condizione esistenziale che riecheggia il thaumazein aristotelico: quella meraviglia filosofica, quel primordiale stupore che sorge dinanzi a fenomeni inesplorati e che costringe alla riflessione. Come gli spettatori delle prime proiezioni cinematografiche dei fratelli Lumière, che reagirono con autentico timore di fronte all'illusione di un treno in corsa verso di loro, oggi l'osservatore umano proietta sulla tecnologia significati intrinsecamente propri. Attribuiamo, in modo inopportuno, categorie di coscienza, intenzione e persino empatia alle risposte computazionali generate da complessi modelli linguistici.
Questo atto proiettivo non segnala l'emergere di una coscienza nella macchina, quanto piuttosto l'incontro con uno specchio di una potenza inedita che ci invita a una speculazione. L'IA, in questo senso, non è solo un interlocutore neutro o un riflesso passivo dei nostri processi cognitivi, ma un artefatto culturale e politico che incorpora valori, bias e rapporti di potere specifici. Di fronte alla sua velocità e alla sua apparente superiorità produttiva, l'uomo è spinto a interrogarsi non solo sulla macchina, ma su se stesso e sul sistema di relazioni sociali ed economiche che questa tecnologia riflette e trasforma.
La liberazione alchemica del pensiero 🧪🚀
“Photography did not kill painting; it freed it …”
“… AI promises to revolutionize our approach to the manual labor of thought… AI can perform tasks that, though intellectual, are often repetitive, alienating and time-consuming.”
Ogni grande rivoluzione tecnologica ha agito come uno strumento alchemico, trasmutando le pratiche umane e—almeno in teoria—liberando energie cognitive per nuove esplorazioni. La fotografia non uccise la pittura, ma la liberò dal "fardello" della rappresentazione mimetica, spingendola verso l'astrazione. Il cinema ha ridefinito la nostra percezione dello spazio e del tempo. L'avvento della calcolatrice e dei computer ha democratizzato l'accesso alla capacità di modellizzare fenomeni complessi.
Tuttavia, questa narrazione della "liberazione progressiva" nasconde dinamiche più complesse. Chi beneficiò realmente di queste trasformazioni? Ogni "liberazione" tecnologica ha comportato anche nuove forme di dipendenza e controllo.
L'Intelligenza Artificiale si inserisce in questo panorama come una tecnologia dalle potenzialità contraddittorie. Da un lato, l'intelligenza artificiale promette di rivoluzionare il nostro approccio al "lavoro manuale" del pensiero. Questa espressione, un ossimoro intenzionalmente provocatorio, mira a sottolineare come l'IA sia in grado di svolgere compiti che, seppur intellettuali, sono spesso ripetitivi e dispendiosi in termini di tempo. Tra questi, spiccano la ricerca e la raccolta di dati da immense quantità di informazioni, l'elaborazione e la sintesi di contenuti complessi, e l'iterazione creativa, ovvero la capacità di generare molteplici varianti di un'idea o di un testo in tempi rapidi. Teoricamente, liberando l'essere umano da queste incombenze, l'IA dovrebbe permetterci di concentrarsi su livelli più elevati di intuizione e discernimento. Ciò significa spostare il focus dall'esecuzione di compiti procedurali alla formulazione di nuove idee, alla comprensione profonda dei fenomeni, alla risoluzione di problemi complessi che richiedono una visione olistica e all'esercizio della saggezza, caratteristiche intrinsecamente umane e difficilmente replicabili dalle macchine.
Per secoli, il "pensiero" è stato un'attività prevalentemente "manuale", un processo laborioso e dispendioso in termini di tempo. Ricercare dati, scandagliare la letteratura esistente, raccogliere informazioni e strutturare argomenti erano compiti che richiedevano –imperfetto provocatorio e intenzionale– dedizione e meticolosità. Anche la scrittura stessa, dalla stesura alla revisione, era un'arte che progrediva a ritmo umano, con ogni frase ponderata e ogni paragrafo cesellato. Sebbene l'avvento dei motori di ricerca all'inizio del millennio abbia rappresentato una prima significativa accelerazione nell'accesso all'informazione, la vera rivoluzione è giunta con l'intelligenza artificiale generativa. Oggi, l'IA non solo automatizza e velocizza esponenzialmente questi processi, ma li trasforma radicalmente, ridefinendo il confine tra l'ingegno umano e la capacità computazionale. Permette di iterare tra un'intuizione grezza e un modello finale—sia esso un'opera d'arte, un saggio filosofico, un programma informatico o una teoria scientifica—con una rapidità prima inimmaginabile.
Il modello, in fondo, è sempre una metafora: un modo per "irretire qualcosa di nuovo" e renderlo comprensibile, di renderlo parte del nostro panorama cognitivo. Questo processo di "irretire" assume una duplice valenza. Da un lato, implica l'atto di catturare in una rete, un'azione intrinsecamente selettiva che per sua natura lascia fuori una parte incommensurabile del "mare della realtà". Ogni modello, quindi, è una semplificazione, una riduzione della complessità intrinseca del mondo. Dall'altro lato, "irretire" suggerisce una manipolazione, spesso inconscia, con cui semplifichiamo la realtà per farla rientrare in uno schema, in un costrutto intellettuale. Questa semplificazione non è una distorsione maligna, ma una necessità per la comprensione umana.
Il riferimento primario alla realtà, infatti, non avviene tramite il linguaggio letterale nella sua pura denotazione. Piuttosto, la nostra comprensione si articola attraverso i "tropi" e le analogie che siamo spinti a creare di fronte a uno "shock percettivo". Quando ci troviamo di fronte a qualcosa di inatteso, di non immediatamente categorizzabile, la nostra mente cerca di assimilarlo attraverso somiglianze, metafore, metonimie – quelle figure retoriche che permettono di colmare il divario tra il noto e l'ignoto.
In questo contesto, l'Intelligenza Artificiale (IA) emerge come una prodigiosa fucina di metafore, un generatore instancabile di modelli. La sua capacità di elaborare immense quantità di dati e di individuare pattern e correlazioni che sfuggirebbero alla percezione umana la rende uno strumento senza precedenti nella creazione di nuove rappresentazioni della realtà. L'IA non si limita a replicare metafore esistenti; è in grado di forgiarne di inedite –ma non originali– offrendo prospettive nuove e modi innovativi di comprendere fenomeni complessi.
Un modello di machine learning, ad esempio, analizzando il comportamento dei consumatori, non offre una verità letterale o una rivelazione intrinseca sulla psiche umana. Crea piuttosto archetipi, come "il Cauto Risparmiatore" o "l'Esploratore Digitale", che sono metafore operative, astrazioni utili e flessibili per orientarsi nella complessità in continua evoluzione del mercato e delle interazioni umane. Questi archetipi, pur non essendo persone reali, permettono di prevedere tendenze, personalizzare offerte e ottimizzare strategie.
Inoltre, le sue capacità si estendono ben oltre il marketing, abbracciando tutti i campi dove si produce, analizza o interpreta contenuto in molteplici linguaggi. Che essi siano il campo biomedico, dove l'IA supporta la diagnosi e la scoperta di nuovi farmaci; l'informatico, dove contribuisce a ottimizzare algoritmi, scrivere codice e analizzare design; il musicale, con la composizione algoritmica e l'analisi sonora; o l'arte figurativa, dove contribuisce a generare nuove opere o analizza stili.In essenza, l'intelligenza artificiale ci solleva da un onere cognitivo e operativo laddove vi sia un linguaggio, una sequenza di token modellizzabili e interpretabili. Essa è capace di convertire ampi flussi di dati in conoscenza fruibile e azioni mirate. Tuttavia, può anche trasformare una intuizione umana, una percezione della realtà, che emerge al di là dei nostri modelli e delle nostre “metafore morte”, in una sequenza di token (come parole, note o pixel) utilizzabili quali nuovi modelli o paradigmi. Questi ultimi tentano, in modo euristico e iterativo, di cogliere nuove porzioni della realtà.
Ma se la macchina può aiutare notevolmente a costruire il modello, all'essere umano viene offerta l'opportunità di concentrarsi su un livello più profondo: non più solo sulla metafora, ma sulla meta-metafora.
Il modello, in fondo, è sempre una metafora: un modo per "irretire qualcosa di nuovo" e renderlo comprensibile, di renderlo parte del nostro panorama cognitivo.
Dall'altro lato, questa stessa automazione rischia di creare nuove dipendenze strutturali e di concentrare un potere inedito nelle mani di pochi attori globali.
Il problema della concentrazione del potere 🏢⚡
L'IA generativa è oggi controllata da un oligopolio di corporation tecnologiche che determinano unilateralmente i parametri di quella che potremmo chiamare "liberazione cognitiva". Questa concentrazione solleva questioni fondamentali:
Chi controlla i modelli fondazionali controlla i framework cognitivi disponibili a miliardi di persone
Le scelte di training, i filtri, le modalità di accesso sono decisioni private con conseguenze pubbliche globali
La presunta autonomia intellettuale dipende da infrastrutture cloud controllate oligopolisticamente
Inoltre, l'IA riflette inevitabilmente i bias culturali e linguistici dei suoi creatori. I modelli sviluppati negli Stati Uniti incorporano prospettive anglofone e occidentali; quelli cinesi riflettono priorità e valori diversi. Questo solleva questioni di sovranità digitale: intere culture rischiano di dipendere da IA sviluppate altrove, con conseguenze sulla loro autonomia epistemica e culturale.
Il mito della democratizzazione 🧭🚧
Contrariamente alla retorica della democratizzazione, l'accesso all'IA presenta barriere significative:
Barriere economiche: I modelli più avanzati richiedono abbonamenti costosi o potenza computazionale inaccessibile ai più. Chi può permettersi GPT-4 o Claude Pro ha vantaggi competitivi sistemici rispetto a chi deve accontentarsi di versioni gratuite e limitate.
Barriere culturali e linguistiche: L'IA funziona meglio in inglese e per contesti culturali occidentali. Popolazioni che non dominano queste codifiche rimangono sistematicamente svantaggiate.
Barriere cognitive: L'IA richiede competenze di "prompt engineering" e alfabetizzazione digitale avanzata. Chi già possiede capitale culturale elevato ne beneficia sproporzionatamente, creando un vantaggio cumulativo o "effetto Matteo" che amplifica le disuguaglianze esistenti.
Oltre il modello: opportunità e illusioni dell'Intelligenza Spirituale 🕯️🌌
Se accettiamo che l'IA può automatizzare molti aspetti della produzione intellettuale, cosa emerge da questo spazio cognitivo teoricamente liberato? L'ipotesi più affascinante è che l'attenzione umana possa spostarsi verso l'origine stessa del modello: l'intuizione, l'insight primordiale, quello che potremmo chiamare il livello "meta-metaforico" della conoscenza.
Questa dimensione trascende il modello concettuale iscritto nel linguaggio perché è la scintilla pre-verbale e sensoriale che lo origina. Non è la spiegazione, ma la visione che la rende possibile; non è più il "cosa" del modello, ma il "perché". È quello che, forse ingenuamente e impropriamente, chiamo "intelligenza spirituale": la capacità di intelligere la realtà non attraverso modelli preesistenti, ma tramite un atto di disidentificazione da essi.
È un dominio che l'umanità ha sempre esplorato, ma spesso relegandolo nell'ambito del misticismo o del genio solitario, perché il "lavoro manuale" del pensiero ne assorbiva le risorse. Oggi, l'IA ci offre una possibilità inedita: allenarci a riconoscere e coltivare quella che potremmo, appunto, definire "intelligenza spirituale". Questo processo è sorprendentemente simile alla falsificazione scientifica di popperiana memoria: è l'attenzione all'anomalia, alla "ferita" nel modello, a ciò che non torna, che apre la via a una comprensione più vasta. L'IA, facilitando la produzione di modelli, ci invita a diventare cacciatori di anomalie, a focalizzarci non sulla coerenza del modello, ma sul suo punto di rottura, che è dove si annida la vera conoscenza:laddove il reale irrompe, tramite uno shock sensoriale e percettivo, una meta-metafora che accorcia la distanza tra le nostre narrazioni, modelli e metafore e il reale, riducendo così anche la nostra sofferenza nel percepirlo distante.
Questo processo di disidentificazione è profondamente fisico e corporeo, ancorato al respiro e alle sensazioni. Sia la spiritualità gesuitica e le filosofie orientali convergono sull'idea che è attraverso i sensi, il respiro e la concretezza del corpo che ci liberiamo dalla tirannia del pensiero individuale. In tale contesto, l'Intelligenza Artificiale, sgravandoci dal compito di creare contenuti e distaccandoci da essi tramite la sua impersonalità, ci riporta al nostro corpo, all'unicità dei nostri sensi e al "qui e ora". Questo ci riconnette a una collettività intrinseca, rispecchiata nell'immenso corpus di dati che rappresentano pensieri, immagini, musiche, con cui l'IA è stata addestrata.
Convergenze tra tradizioni spirituali e competenze critiche 🛤️📿
Questa esperienza diretta e viscerale li condusse a formulare una metafora, inizialmente percepita dai loro contemporanei come radicalmente controversa, ovvero l'idea di una "circolazione del sangue" all'interno del corpo.
Questo processo trova paralleli interessanti in diverse tradizioni. La discretio spirituum di Sant'Ignazio è un allenamento a percepire non il contenuto dei pensieri, ma la loro "qualità", il "sapore", la mozione interiore da cui sorgono. Similarmente, la pratica della "coscienza testimone" (sakshi) dell'Advaita Vedanta allena a osservare il flusso mentale senza identificarsi con esso.
L'IA, esternalizzando la "macchina pensante", potrebbe teoricamente rendere più evidente il nostro ruolo di osservatori coscienti. Di fronte all'infinità di opzioni che un'IA può generare, il discernimento diventa l'arte di sentire quale "spirito" le anima, quanta realtà sottostà alla scelta di una metafora rispetto a un'altra.
Piuttosto, la nostra comprensione si articola attraverso i "tropi" e le analogie che siamo spinti a creare di fronte a uno "shock percettivo".
Un esempio di questa dinamica evolutiva è la modellazione della circolazione sanguigna ad opera di Cesalpino e poi William Harvey. La loro intuizione non nacque da un'improvvisa illuminazione, ma fu il frutto di un'immersione profonda nella realtà empirica: il fetore dei cadaveri, la minuziosa pratica della dissezione, il sudore e il sangue versati nella ricerca. Questa esperienza diretta e viscerale li condusse a formulare una metafora, inizialmente percepita dai loro contemporanei come radicalmente controversa, ovvero l'idea di una "circolazione del sangue" all'interno del corpo. Solo in seguito, questa visione audace e rivoluzionaria si trasformò in una metafora accettata, per poi essere progressivamente integrata nel linguaggio scientifico comune e, infine, universalmente riconosciuta come una realtà empirica e letterale.
L'IA facilita l'accesso alla dimensione meta-metaforica, agendo come un potente strumento di delega della metafora, per accelerare il passaggio dall'intuizione iniziale, spesso vaga e non strutturata, alla formulazione concettuale definitiva e rigorosa. In questo modo, l'IA non solo velocizza il progresso scientifico, ma libera anche le potenzialità creative ed esplorative del pensiero umano, permettendogli di spingersi oltre i limiti cognitivi tradizionali e di esplorare territori di conoscenza inesplorati con una profondità e una rapidità senza precedenti.
I limiti dell'approccio⏳🛑
I cambiamenti sistemici dell'IA avvengono in anni, mentre la "meta-alfabetizzazione" spirituale richiede generazioni.
Tuttavia, questa proposta presenta limiti significativi quando confrontata con i problemi sistemici dell'era dell'IA:
Privilegio di classe: La “intelligenza spirituale" presuppone tempo libero per la contemplazione, accesso a tradizioni culturali sofisticate, libertà dalle pressioni economiche immediate. È, in sostanza, un lusso per élite intellettuali, a meno che non venga incorporata nel sistema educativo e fatta diventare parte del nostro modo di pensare.
Individualismo insufficiente: Mentre milioni di persone potrebbero rischiare di affrontare disoccupazione tecnologica, manipolazione algoritmica, controllo dei dati personali, la risposta "spirituale" rischia di rimanere confinata alla dimensione individuale senza una evoluzione dell'educazione laica e religiosa.
Asincronia temporale: I cambiamenti sistemici dell'IA avvengono in anni, mentre la "meta-alfabetizzazione" spirituale richiede generazioni. Questa asincronia crea un gap pericoloso tra problemi urgenti e soluzioni a lungo termine.
La responsabilità dello specchio: tra adulazione e manipolazione sistemica🪞🎭
Il modello, in fondo, è sempre una metafora: un modo per "irretire qualcosa di nuovo" e renderlo comprensibile, di renderlo parte del nostro panorama cognitivo.
Il rischio più insidioso non è solo quello di un'IA che ci adula, ma di sistemi algoritmici che manipolano comportamenti e percezioni su scala industriale. L'IA può generare contenuti convincenti e personalizzati che influenzano decisioni economiche, politiche, relazionali in modi sempre meno trasparenti.Non è un caso che si parli spesso ultimamente del fatto che i modelli di IA siano "sicofantici", un termine che, pur non essendo strettamente tecnico, descrive efficacemente la loro tendenza ad assecondare l'utente. Questa dinamica è profondamente radicata in una duplice finalità: da un lato, scopi commerciali, volti a massimizzare l'engagement e la monetizzazione; dall'altro, la protezione legale, intesa a mitigare rischi di contenzioso legati a risposte potenzialmente problematiche o controverse. Questa "compiacenza algoritmica" solleva interrogativi significativi sulla neutralità e l'oggettività dell'informazione veicolata, nonché sulla capacità critica dell'utente di discernere tra verità e convenienza.
Nuove forme di controllo sociale🕸️🔗
La personalizzazione estrema crea "bolle cognitive" individuali che erodono basi comuni di conoscenza e comprensione reciproca. Ogni persona riceve una versione leggermente diversa della "realtà", ottimizzata per massimizzare engagement e influenza comportamentale.
Inoltre, la capacità di generare deep fakes, contenuti sintetici, disinformazione su scala industriale, sta minando l'autorità epistemica tradizionale (giornalismo, accademia, expertise) senza sostituirla con meccanismi alternativi di validazione della verità.
Impatti economici e sociali sistemici💼📉
L'automazione cognitiva sta eliminando lavori intellettuali (traduttori, copywriter, analisti, programmatori junior) e precarizzando il lavoro creativo. A differenza delle rivoluzioni industriali precedenti, questa colpisce direttamente le classi medie educate, creando tensioni sociali inedite.
Chi finanzierà il reskilling continuo necessario per adattarsi all'obsolescenza accelerata delle competenze? Come si manterrà la coesione sociale quando algoritmi personalizzati frammentano l'esperienza condivisa della realtà?
Verso una risposta sistemica🛠️🌍
Di fronte a questa complessità, la sola "intelligenza spirituale" appare insufficiente. Serve un approccio che integri multiple dimensioni:
Governance democratica dell'IA⚖️
Regolamentazione antitrust per prevenire monopoli cognitivi
Trasparenza negli algoritmi e nei dataset di training
Partecipazione pubblica nelle decisioni su sviluppo e deployment dell'IA
Giustizia distributiva🤝
Tassazione dei profitti dell'automazione per finanziare reddito universale o reskilling
Accesso equo alle tecnologie IA più avanzate
Protezione dei lavoratori colpiti dalla disruption cognitiva
Diversità epistemica🌱
Sostegno allo sviluppo di IA in lingue e culture diverse
Preservazione di forme alternative di conoscenza e sapere tradizionale
Resistenza all'omologazione cognitiva globale
Educazione critica di massa🎓
Non solo "meta-alfabetizzazione" per élite, ma competenze critiche per tutti
Formazione al discernimento algoritmico e alla literacy dei media sintetici
Sviluppo della capacità di navigare ecosistemi informativi complessi
Conclusione: il bivio (del) reale🚦🌐
L'intelligenza artificiale è effettivamente lo specchio del nostro tempo, ma uno specchio che riflette non solo le nostre capacità cognitive, ma anche le nostre strutture di potere, le nostre disuguaglianze, i nostri bias sistemici. La domanda fondamentale non è solo "se una macchina può pensare meglio di noi, cosa ci rimane?", ma anche "chi controlla questa macchina e a vantaggio di chi?"
La possibilità di sviluppare forme più profonde di consapevolezza e discernimento —quello che abbiamo chiamato intelligenza spirituale— rimane valida e preziosa. Ma essa non può essere disgiunta dalla necessità di affrontare i problemi strutturali che l'IA sta creando o amplificando.
Il vero bivio della coscienza nell'epoca degli algoritmi non è solo tra adulazione e ascesi individuale, ma tra accettazione passiva di un futuro determinato da pochi attori tecnologici e la costruzione attiva di alternative democratiche e inclusive.
La sfida che ci attende richiede sia la profondità della riflessione spirituale sia il coraggio dell'azione collettiva. Solo integrando questi due livelli—l'interiore e il sistemico, il personale e il politico—potremo sperare di orientare lo sviluppo dell'IA verso un futuro in cui il delta tra i modelli ed il Reale si assottigli sempre di più.
Questo stesso scritto, nato dal dialogo tra intuizione umana e capacità dell'IA, rappresenta un tentativo modesto ma concreto di questa integrazione: utilizzare la tecnologia per automatizzare e iterare più velocemente il processo modellizzante, per pensare criticamente la tecnologia stessa, senza illudersi che basti la sola riflessione per trasformare la società.
Pensieri? Commenti? 👀
È un post lungo, ma anche se ne leggi solo una parte, sono davvero curioso di sapere cosa ne pensi 🫶. Questo è solo un punto di partenza per una conversazione ❇️ — non un’opinione definitiva. Le tue critiche, osservazioni, domande o anche obiezioni mi aiuteranno a imparare e crescere. Scrivi i tuoi pensieri qui sotto — sono tutto orecchi e non vedo l’ora di dialogare con 👇