“Noi vendiamo ontologia”.
Lo ha gridato il 4 agosto, con la brutale sincerità che è propria di chi si reputa padrone del mondo, Alexander C. Karp, il Ceo di Palantir, la sulfurea e ormai onnipotente società che produce interferenze sociali e strategie di guerra ibrida.
È questa società privata, fondata da Peter Thiel, il guru del movimento Maga (Make America Great Again) che sostiene Donald Trump, il vero cervello del Pentagono, che ha appaltato non solo le infrastrutture ma anche il know how e le categorie ontologiche appunto, per analizzare scenari e tendenze.
Quel giorno, il 4 agosto scorso, la quotazione di Palantir – il termine è emblematicamente tratto dalla saga di Tolkien Il Signore degli anelli, dove le palantir sono le pietre veggenti che sorvegliano da lontano la specie umana – sfiorò i 400 miliardi di dollari.
Una stima fondata più che sui numeri commerciali, che sono buoni ma non fantascientifici quali la quotazione suggerirebbe, proprio sulla indispensabilità della sua mission: c’è ormai una grande domanda di ontologia nel mondo.
L’affermazione di potenza contenuta nella lettera agli azionisti del Ceo Karp, diffusa qualche ora dopo la quotazione record, è di fatto un manifesto ideologico, che scopre le vere origini e intenzioni di quel sistema che chiamiamo Silicon Valley.
Un laboratorio antropologico dove con la freddezza degli scienziati e il cinismo degli affaristi è stato allestito e perfezionato il più grande esperimento di riconversione di una specie vivente.
Peter Thiel nelle sue esplicite elucubrazioni non fa mistero che la potenza di calcolo sia il mezzo per mettere ordine al caos planetario e “salvare” l’umanità da quella che definisce la grande stagnazione indotta dalla democrazia.
Una vena ideologica che attraversa da sempre la società americana.
Dai Padri Pellegrini che usarono le scritture come fondamento del nuovo stato, per sfuggire alla complessità culturale europea, nel pieno del secolo del calcolo e delle eresie, quale fu il XVII°, all’epopea della nuova frontiera, dove la violenza privata fu la tecnologia per accelerare lo sviluppo (pensiamo allo sterminio dei nativi e alla stagione della giustizia fai da te che contrappose allevatori a coltivatori), per arrivare poi alle suggestioni del governo degli ingegneri della fine del XIX° secolo, fino alla gigantesca macchina dei sogni, l’apparato dell’immaginario americano, ben spiegata da un profeta dell’autoritarismo comunicativo quale fu Edward Bernays, nipote di Freud, che nel 1928, alla vigilia della grande crisi, nel suo saggio Propaganda teorizzò che “poiché la nostra democrazia ha la missione di tracciare la via, deve essere governata dalla minoranza intelligente che sa organizzare le masse per poterle meglio guidare”.
Da questo filone socio culturale arriva oggi Trump e il movimento suprematista Maga, di cui Thiel e i suoi guru informatici sono i nuovi profeti.
Il mezzo è il messaggio, per richiamare McLuhan. In questa strategia è la relazione fra le parole e i numeri, cioè i numeri codificano l’ordine della sequenza delle parole che determina nella macchina la relazione mnemonica fra ogni spezzone di frase e il suo senso. Sono questi spezzoni di frasi ingurgitati dai dispositivi di intelligenza artificiale i famosi parametri semantici di cui si cibano a miliardi di miliardi i diversi prodotti di intelligenza generativa.
L’informatica, che genera la scienza dell’informazione, è esattamente il sapere che traduce in numeri, fondamentalmente 0 e 1, l’intero universo semantico di tutto quanto sia stato pensato e scritto.
Come sempre, nelle trascrizioni di pensieri e visioni originali, il traduttore aggiunge e altera senso.
È in questa particolare fase, quando il pensiero si automatizza nell’algoritmo, che si sta trasformando l’evoluzione umana mediante appunto la transizione da un pensare lento e individuale, ad un decidere veloce e condiviso.
Concretamente parliamo di quella delicatissima ed essenziale fase di formazione e addestramento dei dispositivi di intelligenza artificiale, quando l’ordine e la struttura dei contenuti trasmessi alla macchina, i famosi parametri semantici contati a miliardi di miliardi, vengono impaginati e connessi gli uni agli altri per dare al sistema la massima consapevolezza possibile della sequenza logica che si trova a riprodurre.
LE CINQUE W DELL’AI
Torna qui di attualità la vecchia filastrocca del giornalismo artigianale, le 5 W: What? Where? When? Who? Why? A cui aggiungerei la sesta W che, dopo aver cambiato pelle all’informazione, sta imponendo un senso inedito al pensiero: While, quel mentre che sta comprimendo ogni evento ed ogni relativa narrazione in un eterno e precipitoso presente. La simultaneità fra il fatto e la notizia ha sconvolto profili professionali, metriche narrative, tecniche distributive dell’informazione.
Dinanzi ad ogni sistema di intelligenza artificiale dovremmo porre esattamente queste domande per poter correttamente identificare il senso e l’ontologia che quel sistema ci sta vendendo, come dicono i capi di Palantir.
Torniamo inesorabilmente a quell’imitation game con cui Alan Turing, con il suo fatidico articolo pubblicato su Mind dal titolo “Computing machinery and intelligence” del 1950, pose la fatidica domanda che ancora oggi fa discutere i sofisti digitali: “una macchina può pensare come un uomo?”. Oggi il punto interrogativo sembra sempre più prossimo ad essere cancellato.
Da quel quesito di Turing si aprì la corsa alla interattività ossia all’interferenza di sistemi artificiali, comandati o programmati da un autore o proprietario, sulla vita degli altri esseri umani, appunto quella che il professor Federico Cabitza dell’Università Bicocca di Milano ha definito Ethopoiesis, ossia produzione di comportamenti [1].
In realtà alle spalle di questa intuizione cibernetica c’era, come sempre quando si parla di tecnologia, una visione politica, ancora di più, una volontà ideologica simboleggiata dal saggio di Vannuvar Bush, il più geniale sociologo del 900, apparso sulla rivista Atlantic nel luglio del 1945 intitolato “As we may think”, con il quale si rispondeva alla domanda posta dal dipartimento di stato americano ad alcuni intellettuali sul finire della guerra: come ci potremmo ritrovare in una contesa sull’egemonia nel mondo con la contro parte sovietica?
Bush, offrendo una matrice ontologica, appunto, e un contesto geo politico alla successiva elaborazione di Turing, spiegò che l’unico modo per prevalere sul movimento del lavoro, che i sovietici rappresentavano, era smantellare l’infrastruttura industriale manifatturiera, e sostituirla con un apparato virtuale al cui centro non era la produzione materiale ma il sapere.
Proprio seguendo questa bussola, prende le mosse il complesso della Silicon Valley negli anni 50, dove si pratica proprio la centralità della conoscenza come forma di valorizzazione delle merci.
Un fenomeno tecnologico che il capitalismo, usando come ha sempre fatto la domanda di libertà in induzione all’individualismo, ha trasformato in un modello di organizzazione sociale, scambiando efficienza con subalternità.
La stagione del ribellismo anti autoritario e anti disciplinare degli anni 60, che attraverso il Free Speech di Mario Savio a Berkley divenne la base del free software di Richard Stalman che diede la prima spinta alla computerizzazione di massa, divenne poi la base di consenso del nuovo mercato della connessione, dove i gangli della rete divennero da soci di un sogno di autonomia clienti di un unico linguaggio commerciale.
In questa transizione, dai sistemi operativi centralizzati da Microsoft, alle capacità di ricerca di Google, ai social di Facebook, fino a ChatGPT, la potenza di relazione diretta che frantuma le comunità in pulviscolo di followers, ci ha portato, con le intelligenze semantiche, ad una gerarchia di vocabolari.
Tramite i linguaggi, la scelta delle sequenze delle parole, costruiamo ontologie, che vengono allegate alle risposte ai nostri prompt, sempre più while.
Etimologicamente l’ontologia, che vendono nella silicon valley, è un concetto forte: discorso, trattazione, studio (dal greco Lògos) sull’essere, su ciò che è (in greco “òn ontos” è il participio presente di “eimi”, io sono).
SE NON PENSANO DECIDONO
Mentre ci si accapiglia, soprattutto in Europa, sul concetto di tecnologia senziente, ossia sulle proprietà di intelligenza umana che potrebbe o dovrebbe avere un sistema di intelligenza artificiale, disputando sulle premesse filosofiche dell’idea di intelligenza, negli USA, al vertice del paese, si fissano le gerarchie nella classificazione materiale della vita, puntando al primato nel programmare, realizzare e controllare i processi evolutivi dell’esistenza, mediante costante controllo e interferenza su ogni attività vitale degli esseri.
In questo scenario, che vede le tecnologie psico computazionali articolarsi in protesi neurali che affiancano e orientano il nostro esserci, si conferma una tendenza strutturale dell’informatica che scompiglia i piani di Thiel: il decentramento.
Da grande a piccolo, da centrale a individuale, da istituzionale a sociale: ogni stadio dell’innovazione informatica produce miniaturizzazione e moltiplicazione degli accessi alla gestione e non solo all’uso subalterno dei nuovi apparati.
Già Adriano Olivetti , in un famosissimo discorso che tenne l’8 novembre 1959 [2] presentando l’ultima versione del calcolatore Elea all’allora Capo dello Stato Giovanni Gronchi, nella sua “comunità” di Ivrea, coglieva questa peculiarità della nuova scienza informatica : miniaturizzare gli apparati diluendo la dimensione industriale a misura di ogni singolo individuo, mutando la natura e la funzione dell’impresa che non potrà più, sosteneva Olivetti, esaurirsi nella ricerca del profitto ma dovrà contrattare con le comunità sociali le forme di benessere condiviso.
Ne abbiamo visto l’impatto del decentramento sui sistemi di calcolo con il personal computer, e sugli smartphone, che hanno integrato in network professionali milioni di dilettanti, trasformando le elites in occasionali esperti, sempre accerchiati e incalzati dall’onda montante delle competenze di massa. In questo l’informatica è una cultura profondamente politica: è il luogo del conflitto moderno fra orizzontale e verticale come vaticinò un grande vecchio della sinistra italiana come Vittorio Foa [3].
Le intelligenze artificiali generative non fanno eccezione.
In poco tempo, nei tre anni che ci separano dalla prima offerta di ChatGPT, assistiamo ad un proliferare di infine modalità e versioni di sistemi che stressano sempre di più le possibilità di personalizzazione e di tipicizzazione dei codici linguistici che guidano i sistemi generativi.
Un terreno di confronto e conflitto culturale e politico.
Mentre ad esempio Sam Altman, il Ceo di OpenAI, la società proprietaria di ChatGPT, teorizza che l’intelligenza artificiale, al singolare, sarà quanto prima una commodity, una sorta di energia elettrica a cui ognuno potrà connettersi [4].
Invece Jensen Huang, il capo di Nvidia, il colosso che produce i pregiati microchip per attivare gli apparati di intelligenza artificiale, parla al plurale delle diverse opzioni che il mercato proporrà, sostenendo che ognuno potrà disporre di una propria AI [5].
Due visioni che implicano modelli sociali e geopolitici diversi e su cui si sta ingaggiando una partita nevralgica in Europa.
Infatti al centro della contesa è proprio la capacità e la possibilità di poter identificare i sistemi di automatizzazione delle decisioni, tali sono in concreto le forme di AI, che adottiamo attraverso i bot e i sistemi esperti verticali, con la nostra autonoma struttura semantica, ancora di più e meglio, con la nostra ontologia.
È un tipico e ricorrente conflitto nella storia umana: come salvaguardare e valorizzare il proprio modo di esprimersi e di trasmettere, con i media del tempo, il senso comune proprio.
In questa tendenza appare centrale per ogni apparato linguistico-culturale la capacità e ambizione di essere soggetto attivo nei processi di tipicizzazione e formattazione, appunto ontologica, dei sistemi di interferenza sociale quale sono i dispositivi di intelligenza artificiale che si riducono comunque a macchine di automatizzazione delle decisioni.
La trasmissione del sapere è la funzione che sostiene una struttura sociale, accredita le sue elites e garantisce politicamente il protagonismo di una comunità.
Le grandi religioni monoteiste si affermano e si strutturano con le scritture. Gli ebrei, come popolo eletto che si separa dalle comunità circostanti, sono gli unici a pretendere che tutti i propri correligionari sappiano leggere perché è un libro e non una terra a identificare la loro comunità. Mentre i cristiani riservano solo alla gerarchia ecclesiastica l’accesso ai testi sacri, visto che l’universalità del messaggio poteva produrre confusione e ingovernabilità fra le diverse popolazioni di fedeli.
Ad Atene, dopo la condanna di Socrate, nel 399 A.C., Platone inventa gli intellettuali, dando a quelle elites la missione di formare e trasmettere le conoscenze.
Il rapporto fra potere e diffusione del sapere diventa sempre più organico: dall’impero carolingio al medio Evo, alle città stato, fino ai grandi imperi, e poi agli stati che seguono la pace di Vestfalia.
Dal dominio dei monasteri come fabbriche dei libri, alla moltiplicazione dei copisti laici, si arriva allo shock della stampa di Gutemberg, che muta l’economia del sapere, con un’inflazione di pubblicazioni.
Sono gli stampatori che guidano il processo di alfabetizzazione del mondo conosciuto, più degli autori, semplici funzionari dell’industrializzazione della stampa.
Nasce proprio alla fine del ‘500 la prima modalità multimediale, in cui testi e immagini condividono la stessa pagina. Creando una nuova dimensione epistemologica.
ARIOSTO IL PRIMO MULTIMEDIALE
Ci indica Lina Bolzoni, una straordinaria archeologa della semantica letteraria, nel saggio La Galassia Ariosto (Donzelli) che ha curato nel 2017, come sia stato prefigurante “quell’intarsio di parole ed immagini che caratterizza l’impresa che l’Ariosto dissemina” riferendosi alla prima edizione dell’Orlando Furioso, in cui campeggiano straordinarie miniature di figure mitologiche che danno alla pagina e alla stessa forma della lettura un nuovo valore e senso.
Trasmissione di senso e articolazione del messaggio in una pluralità di linguaggi scritti e iconografici sono i due elementi di fondo di una capacità espressiva autonoma di un popolo o un paese.
La prima funzione – la trasmissione – assicura legame, crea quella complessità emotiva che distingue ancora il ceppo semantico mediterraneo da quello anglosassone, che produce oggi i sistemi di intelligenza artificiale.
Il punto che sta diventando incombente riguarda proprio la considerazione che il dominio linguistico del proprietario dei sistemi automatici, diciamo i calcolanti, tende ad essere insidiato da quella spinta al decentramento che abbiamo descritto. Una spinta che ci propone di dotarci di strategie e contenuti tali da poter giocare la partita della personalizzazione dei sistemi in chiave di abbondanza, la moltiplicazione delle opportunità, e non di penuria, la semplice normativa vincolistica.
La cultura delle tutele e del garantismo con cui fu giocata la partita dell’eccezione culturale cinematografica è risultata del tutto fallimentare, o comunque largamente insufficiente.
Nella tornata delle intelligenze artificiali, si deve affrontare il tema con un approccio radicalmente diverso.
Gino Roncaglia, nel saggio che appare nel già citato Galassia Ariosto, ci parla di “multicodicalità” come superamento dell’ormai del tutto inadeguata multimedialità. Intende con il nuovo termine proprio la formattazione di linguaggi digitalmente dinamici e ricchi grazie alla potenza espressiva, vettore di una grande densità di senso, che contengono immagini e narrazione video.
La sfida che abbiamo dinanzi è proprio quella di ripensare la filiera della comunicazione, alla luce di questa nuova organizzazione ontologica, in cui i sistemi di connessione, combinati con capacità generative, raggiungono direttamente miliardi di individui, condizionandone comportamento e modo di pensare. Di conseguenza l’intera filiera mediatica – dall’informazione ai linguaggi narrativi, dalla letteratura ai prodotti audiovisivi – non può ignorare che la modalità di arrivare agli utenti contempla oggi anche il ruolo dei sistemi agentici, ossia dei bot intelligenti che rispondono alle domande di noi tutti. In sostanza si parla al mondo anche attraverso il senso che si organizza nei meandri degli algoritmi di intelligenza artificiale che supportano le nostre necessità.
Esattamente come nel secolo scorso si condividevano le opinioni del mondo mediante i mass media, che interfacciavano autori e utenti.
Quanto un film o una fiction sono stati pensati e realizzati proprio per veicolare senso comune, addirittura per concorrere, se non proprio determinare, un’ontologia collettiva?
E di conseguenza quanto oggi questo patrimonio può essere “letteratura di formazione” per i sistemi esperti, per le nuove versioni di intelligenze, come ad esempio Gemini 2 di Google o Claude di Anthropic, o ancora CoPilot di Microsoft addestrabili mediante modelli di distillazione, come ci ha mostrato la cinese deep seek.
Mi riferisco a quella catena di addestramento che permetta che da un grande sistema, quale quelli dei brand più accreditati della Silicon Valley, si possa ricavare un apparato specializzato e personalizzato.
Le esperienze indicate da realtà come la francese Mistral, o la svizzera Apertus, nelle loro differenze ci informano di una rapida evoluzione, nella direzione dell’Open Source, delle capacità generative. E ci dicono come oggi si possa, in una scala sempre più maneggevole, organizzare dispositivi intelligenti il cui linguaggio e la gerarchia dei valori possano essere più affini all’utente che al proprietario. Più simili al calcolato che al calcolante.
Siamo reduci in questo primo scorcio di nuovo secolo da una prima esperienza di rinnovamento dei modi di leggere e scrivere, che l’integrazione di protesi digitali e il contesto di un’ipertestualità avvolgente ci ha imposto. Una nuova modalità che ci ha consentito forme di lettura e scrittura aumentate, filtrate e rafforzate attraverso sistemi industriali, veri e propri moltiplicatori cognitivi, che accorciavano i testi in abstract e riproducevano interi brani con i link.
LA PALESTRA DEL GIORNALISMO
Già il giornalismo è stato un laboratorio, in cui si scriveva e parlava a macchine, piattaforme e siti, con i linguaggi propri che quel mondo pretende, affinché queste macchine poi parlassero agli utenti. Da anni componiamo pagine e compiliamo testi elettronici ricodificando la vecchia letteratura professionale sulla base dei dati di contatto. Abbiamo riformulato la struttura del titolo, la cadenza dei sommari, la portata dei testi e soprattutto la relazione fra testo, fonte e corredo audiovisivo attraverso un vorticoso gioco di link, da cui estraiamo costantemente informazioni per far evolvere tutti questi elementi in base all’attenzione degli utenti.
Ora è la creatività audiovisiva ad essere sollecitata ad un salto di specie.
Non solo per la parte di produzione, in cui con l’uso di sistemi editoriali automatici, che alleggeriscono attività di realizzazione e di editing successiva, fino alla creazione dal nulla di intere sequenze sceniche si ottiene un prodotto con un impegno manifatturiero ridotto. Ma proprio con una nuova metrica letteraria e audiovisiva del racconto ai fini primari di addomesticare una macchina.
Se prima codificare significare istruire la macchina a fare determinate operazioni usando il suo linguaggio, affidando la nostra visione del tema alla macchina affinché la processi, ora invece abbiamo l’ambizione di portare la macchina a pensare e operare con il nostro linguaggio.
Tanto più se si investe sulla ricchezza della multicodicalità, di cui parla Roncaglia.
Pensiamo ad esempio a come l’intero ciclo del neo realismo – dai classici di Rossellini e De Sica, passando per De Santis a Lattuada – possa trasmettere episteme della ricostruzione della società repubblicana nel nostro paese, oppure come Fellini o Visconti siano vettori di problematicità della modernità industriale, e procedendo con la commedia all’italiana o i grandi autori.
Ma in particolare è la fiction che potrebbe diventare una vera matrice di ontologia nazionale. Dai grandi teleromanzi degli anni 60, fino alle prime esperienze degli anni 70 e 80 di genere di largo consumo, per arrivare a quella narrazione dell’intima percezione nazionale che è stata cadenzata in questi ultimi decenni dalla Rai in particolare, ma anche dalla stessa Mediaset.
Pensiamo alla cura dei dialoghi, alla composizione delle scene, interne ed esterne, alla rielaborazione della cronaca o dei miti contemporanei. Un bagaglio etico ed estetico che potrebbe disegnare un sentiment, come si dice, uno stile linguistico e mentale che potrebbe indurre le soluzioni tecnologiche ad un’interpretazione delle opzioni cognitive più organiche e integrate alle culture nazionali.
LA FICTION COME ACADEMY
L’esperienza di Netflix, con la sua attenta aderenza delle sceneggiature ai dati di gradimento degli utenti, ricavati dalla piattaforma, ci dice come oggi la costruzione della narrazione poggia su registri più vari e complessi del semplice racconto o anche della traduzione televisiva di un’opera letteraria.
Fra questi registri si annuncia ora una nuova funzionalità: content for tuning.
Si estende cosi l’utilità ripetuta di prodotti quali la fiction alle procedure di affinamento delle intelligenze artificiali.
Si tratta di un cambio sostanziale di prospettiva nella dinamica mediatica, in cui si ripropone un ruolo nazionale agli autori, più in generale agli intellettuali, come tecnici linguistici per produrre sistemi ontologici. O, ancora di più, agli architetti dei palinsesti e delle strutture di produzione che dovranno assumere come propria responsabilità l’arricchimento delle library di formazione digitale.
Certo gli autori, gli stessi intellettuali, i dirigenti degli apparati editoriali, devono acquisire per questo la dimestichezza con i nuovi codici che l’intermediazione algoritmica reclama, in cui, come dicevamo, il destino di un’opera letteraria o audiovisiva non è solo riservata agli utenti diretti, ma ad un pubblico che vi arriverà mediato da un sistema tecnologico che gli parlerà sulla base di quelle suggestioni, influenzato da quelle espressioni logiche che le opere gli hanno trasmesso.
Siamo reduci in questo primo scorcio di nuovo secolo da una prima esperienza di rinnovamento dei modi di leggere e scrivere, che l’integrazione di protesi digitali e il contesto di un’ipertestualità avvolgente, ci ha imposto. Una nuova modalità che ci ha consentito forme di lettura e scrittura aumentate, filtrate e rafforzate attraverso sistemi industriali, veri e propri moltiplicatori cognitivi, che accorciavano i testi in abstract e riproducevano interi brani con i link.
Siamo un paese che ha alle spalle straordinarie esperienze di adattamento e riconfigurazione di filiere produttive come l’artigianato di qualità -dalla moda al design alla meccanica di precisione- ci ha insegnato. Investire questo istinto in un settore emergente che potremmo definire del “design semantico per il learning machine” ci offre una nuova opportunità di rientrare nel campo della competizione tecnologica.
Siamo, nonostante l’autoflaggellazione, una realtà di prima linea per la potenza di calcolo pura, che ci annovera fra i primi tre paesi con capacità di elaborazione record: ospitiamo 4 dei primi dodici calcolatori del pianeta.
Siamo per questo una palestra naturale per l’addestramento e la strutturazione dei bagagli semantici dei sistemi intelligenti. Combinando le disponibilità di apparati come il Cineca di Bologna, principale protagonista nei sistemi computazionali, con gli archivi e le produzioni attuali della Rai già avremmo una vera Academy di formazione in italiano delle tecnologie generative più sofisticate.
Del resto tanti, ma tanti anni fa già Marshal McLuhan aveva intuito, nel suo leggendario saggio Galassia Gutenberg che “stiamo cominciando a renderci conto che i nuovi media non sono solo espedienti meccanici per la creazione di mondi di illusioni, ma nuovi linguaggi con poteri di espressione originali e unici”.
Se lo erano quei nuovi media 50 anni fa figuriamo i vecchi media attuali.
In questo gioco algoritmico che impatta direttamente sulle formule di organizzazione e trasferimento dei saperi – attraverso attività di intermediazione linguistica, organizzazione semantica, e diffusione informativa – la prospettiva di salvaguardare livelli di autonomia e indipendenza nei processi di formazione del senso comune di un soggetto sociale è conseguenza esclusiva della propria capacità di intervenire, direttamente sul contenuto o indirettamente sui processi, sul percorso di addestramento che anima ogni apparato generativo.
NOTE E RIFERIMENTI BIBLIOGRAFICI
[1] La Lettura, supplemento settimanale del Corriere della Sera, numero 719, 7 settembre 2025
[2] Vedi M.Mezza, Avevamo la Luna, Donzelli editore, 2013, pag 69
[3] Vittorio Foa, Questo Novecento, Einaudi Editore, 2009
[4] https://www.infrajournal.com/it/chi-e-sam-altman-intelligenza-artificiale-openai-chatgpt
[5] https://www.wired.it/article/jensen-huang-nvidia-ai-democratica-intervista/
*da Letture Lente, Ottobre 2025
