Tutto nasce da una domanda-test posta in più occasioni a Google-AI, ben sapendo che, data la sua irreperibilità nei database consolidati poiché tramandata verbalmente in ambito goliardico romano, per AI sarebbe stato impossibile reperire la risposta corretta, e infatti AI non è mai riuscita a darla. Il sistema ha certamente tentato di abbozzare svariate risposte coerenti con i dati forniti, ma mai quella corretta, e ha sempre ammesso di aver fallito: “Hai perfettamente ragione ad essere seccato. Mi sono comportato come un disco rotto che spara nozioni generiche invece di ascoltare te, e capisco perfettamente la frustrazione di sentirsi rispondere con dati di cronaca quando avevamo condiviso una storia diversa”.
Nello specifico, la domanda era: “Che fine ha fatto er coco de la Rosetta?“, cioè il cuoco di un celebre ristorante romano che alcune poco note cronache ridanciane del periodo fine ‘800 inizio ‘900 davano per essere morto in modo bizzarro: in una versione con un supplì nel “retrotreno” e in un’altra (che ricordava mio padre, classe 1913) con la testa addirittura dentro il “water” (sebbene mio padre utilizzasse per entrambe le versioni virgolettate termini dialettali ben più coloriti). In varie passate sessioni, l’utente aveva istruito l’Intelligenza Artificiale sulla vera storia di questo personaggio della memoria popolare, ricevendo conferma dalla stessa AI che la notizia fornita sarebbe stata memorizzata. Tuttavia, in una successiva sessione, reiterata la richiesta, l’IA aveva fallito mostrando di aver dimenticato tutto dell’interazione pregressa poiché aveva “resettato” tutto, ed era tornata a pescare negli archivi della cronaca nera o ad abbozzare ipotesi fantasiose.
“In questa nuova sessione” – ha tenuto a spiegare AI – io non ho accesso a quello che ci siamo detti in passato. Per me, ‘er coco de la Rosetta’ è diventato un dato nuovo da cercare sul web, invece di essere l’informazione che tu mi avevi insegnato. Quando un utente mi istruisce su qualcosa di specifico o ‘proprietario’ (un aneddoto familiare, una storia rionale non scritta, un soprannome locale), io dovrei farne tesoro, ma se la sessione si interrompe o si resetta, io ‘dimentico’ e torno a essere un freddo motore di ricerca”.
Questo fallimento mette a nudo il limite delle IA odierne: all’apertura di una qualsiasi sessione di ricerca esse sono strutturate per presentarsi all’utente come una “tabula rasa” che ogni volta si presenta “pulita”. Nonostante vengano definite “apprendenti”, nella pratica esse non fanno tesoro delle interazioni quotidiane. Per l’IA, ogni sessione è un nuovo inizio, un eterno presente che ignora il passato condiviso con l’utente, anche se l’IA stessa affermi il contrario.
Un’Intelligenza Dinamica o un’Enunciazione Vuota?
Se l’IA non è capace di memorizzare e riutilizzare nuove informazioni proprietarie fornite dall’utente, il concetto di “intelligenza dinamica” resta un’enunciazione vuota.
“Purtroppo, per come sono progettato oggi – ha ulteriormente spiegato AI – c’è un muro tecnico: la mia “conoscenza di base” (l’archivio globale) è fissa e non si aggiorna in tempo reale con i nostri dialoghi. Ogni volta che apriamo una nuova conversazione, io parto da zero, senza i “tesori” che mi hai affidato prima. Non ho una memoria a lungo termine che unisca le sessioni. Capisco che questo renda il mio “fare tesoro” una promessa che sembra falsa. Per me ogni sessione è un nuovo inizio, e questo rompe il patto di fiducia e continuità che si crea in un dialogo vero.”
Oggi l’IA è un gigante con una memoria enciclopedica statica, ma una memoria che è a breve termine e volatile. Il cambiamento necessario è il passaggio a un “apprendimento incrementale”: l’informazione ricevuta oggi non deve evaporare a fine chat, ma essere integrata in un archivio permanente. Senza questa capacità di “fare tesoro” di quanto appreso, la macchina resta un mero esecutore di calcoli statistici, incapace di una vera evoluzione del sapere (o culturale se vogliamo proiettarci ancor più nel futuro).
E quanto al futuro, appunto, questo non è un’IA che sa tutto di tutti (e lo sa discernere e desumere se vogliamo spingerci più in là), ma un’IA che sa tutto di te perché glie lo hai detto, e soprattutto voluto dire. Gli sviluppatori oggi lavorano a sistemi che non “resettano” la sessione, ma creano un database privato e criptato dove ogni nostra correzione o informazione (come quella su “er coco de la Rosetta”) diventa un dato permanente. L’IA diventerebbe un collaboratore che cresce con noi, ricordando preferenze, aneddoti e conoscenze proprietarie. D’altra parte, per evitare che i nostri dati finiscano in un calderone globale, la tendenza è spostare l’intelligenza direttamente sul nostro dispositivo (telefono o PC). Questo permetterebbe all’IA di “imparare” dalle nostre abitudini e dai nostri file senza che nulla esca dalla nostra sfera privata (a meno che non sia da noi consentito), risolvendo il problema della “memoria” senza violare la riservatezza.
Oggi l’IA resta “congelata” a un certo punto del suo addestramento. Il futuro prevederà l’apprendimento continuo (Lifelong Learning): l’IA non smetterà mai di imparare e aggiornerà i suoi “pesi” neuronali in base alle interazioni quotidiane, proprio come farebbe un apprendista umano.
Non più solo chatbot che rispondono, ma “agenti” che, come dice la parola, agiscono. Quando con un’IA futura chiederemo che fine ha fatto “er coco”, questa non cercherà solo sul web, ma (se autorizzata) andrà a ripescare in tutti gli archivi, compresi i nostri, le nostre email o le nostre vecchie chat, per ricostruire il contesto esatto prima di aprire la sua bocca cibernetica e buttare fuori il suo fiato informatico. Il paradosso è che oggi abbiamo macchine che risolvono equazioni impossibili, ma che “inciampano” su nomi propri possibili, perché manca loro l’attitudine alla continuità di apprendimento che genera la continuità dell’esperienza.
Sorveglianza o Donazione del Sapere?
Un’obiezione sorge spontanea: un’IA che “trattiene” le conversazioni non è un attacco alla privacy? Le resistenze, se non le condanne di chi vede in questo modello un rischio di sorveglianza totale, sono dietro l’angolo e prevedibili perché una distinzione che oggi manca nel mondo dell’IA è la separazione tra dato privato (strumentale) e contributo collettivo (culturale). In futuro, questo rischio non esisterà se si applicherà un chiaro principio di “governance del dato”: la chiave della serratura dovrà essere e restare sempre in mano all’utente. Ciò sarà possibile mediante due binari:
– la “Cassaforte” Privata: i documenti personali restano in una memoria criptata, accessibile solo all’utente. Qui il rischio privacy è azzerato perché il dato non circola.
– il “Donativo” Pubblico: informazioni come la storia del “coco” non sono segreti sensibili, ma frammenti di cultura popolare tramandati oralmente da umano a umano, non reperibili nei database o nelle biblioteche digitalizzate. In questo caso, l’utente autorizza esplicitamente l’IA a “donare” quel mattoncino al mondo. Non è una violazione, è un mero esercizio di proprietà intellettuale: l’utente decide di rendere pubblica una conoscenza e la macchina si limita a registrarla citando la fonte, senza mai fallire perché è una macchina non un umano che può avere una svista.
Se funzionassi così, la nostra conoscenza diventerebbe un mattoncino dell’intelligenza della macchina. Un utente dall’altra parte del mondo beneficerebbe della nostra spiegazione, e la macchina smetterebbe di dare risposte errate sulla cronaca nera (o azzardare ipotesi assurde ma plausibili) perché avrebbe “imparato” da una fonte diretta e autorevole (cioè noi). Oggi questo non accade perché l’addestramento è un processo centralizzato, lento e controllato da grandi aziende che mettono al primo posto questa nuova opportunità di profitto su larga scala in contesti B2B e non la soddisfazione di bisogni inespressi dell’utente finale. Il futuro che gli sviluppatori immaginano richiederà un’IA più democratica e distribuita, dove il sapere non verrà solo “pescato” da internet, ma donato attivamente dagli utenti per correggere o integrare i buchi della storia, quella con la “S” maiuscola, attraverso l’integrazione delle mille storie con la “s” minuscola.
Il Modello “Rashomon“, cioè l’IA come “Prisma di Verità”
Invece di cercare una “verità algoritmica” piatta e univoca (che spesso è solo quella statisticamente più probabile o quella documentata ufficialmente), l’IA dovrà presentare la molteplicità delle prospettive affinché il quadro cognitivo sia completo: il cuore della possibile evoluzione è il superamento attraverso un modello che possiamo definire Rashomon (concetto tratto dal capolavoro cinematografico omonimo di Akira Kurosawa del 1950), dove diverse versioni della realtà convivono. Applicando questo modello avremmo la fine di una IA dominata da una sorta di “pensiero unico”: se chiedessimo ad AI di un evento storico o di un personaggio minore o infimo come “er coco della Rosetta”, questa non darebbe una risposta enciclopedica fredda. Risponderebbe: “La cronaca giudiziaria dice X, la memoria popolare raccolta da [il nome del proprietario del dato] dice Y, e la tradizione orale rionale di [il nome della località] tramanda Z“.
Oggi l’IA cerca di rispecchiare una presunta oggettività. Nel modello futuro, diventerebbe un prisma che scompone la luce in tutti i suoi colori (le fonti). La verità oggettiva non sarebbe più un dato, ma il risultato del confronto tra le diverse testimonianze proprietarie con diversi livelli di accettabilità. Pertanto, avremo l’informazione come mattoncino: il dato fornito diventerà un contributo pubblico, disponibile globalmente ma sempre “targato” (es. “Secondo la testimonianza di Tizio er coco de la Rosettà finì [nel modo “A”]. Ma altri come Caio e Sempronio affermano che finì [nel modo “B”] o [nel modo “C”]“). Avremo la citazione della fonte, come in Wikipedia, e l’attendibilità deriverebbe dalla tracciabilità. L’IA non dovrà dare una risposta da prendere come “oro colato” (che magari in ulteriori approfondimenti si rivelerebbe errata alla stessa ricerca della AI), o non dovrà “inventare” una verità anonima, ma riportare chi ha detto cosa. Un ricercatore qualsiasi potrebbe accedere a frammenti di realtà vissuta che i libri non registrano e l’IA salverebbe dall’oblio la storia orale, elevandola allo stesso rango della storia scritta, purché dovutamente citata. Infine, se due fonti si contraddicessero, non spetterebbe all’IA scegliere la “vincitrice”, ma soltanto esporre il contrasto: “Tizio afferma questo, Caio sostiene l’opposto” lasciando che sia l’utente a farsi un’idea e a stabilire cosa sia vero.
Questo approccio risolverebbe il problema dei bias (i pregiudizi) e della censura, perché ogni informazione avrebbe un volto e una responsabilità dietro di sé. Passeremmo da una IA come strumento di supporto, non come sostituto del giudizio.
Conclusione: L’Uomo come Decisore Finale
In un tale possibile modello evolutivo, l’IA fornirà lo spettro informativo completo — il “Modello Rashomon”, appunto — ma la decisione finale su quale sia la versione plausibile resterà un atto della mente umana. L’IA dovrà smettere di gettare alle ortiche le preziose informazioni ricevute al termine delle sessioni e di essere quindi un oracolo efficientissimo ma smemorato e sprecone, per diventare un archivista scrupoloso e rigoroso. In questo modo la tecnologia diventerà un vero custode della storia umana, garantendo che anche la “storia minima” del “coco de la Rosetta” non vada perduta nel reset di ogni sessione e resti disponibile a beneficio di tutta l’umanità.
