Apophorèta digitale: ciò che l’intelligenza artificiale porta e toglie

Apophorèta digitale: ciò che l’intelligenza artificiale porta e toglie

Di Yuleisy Cruz Lezcano

Nel percorso espositivo del Deutsches Museum di Monaco, uno dei più importanti musei della scienza e della tecnologia al mondo, una sezione dedicata all’intelligenza artificiale invita i visitatori a interrogarsi non su ciò che le macchine sanno fare, ma su ciò che ricordano. Tra robot umanoidi, reti neurali visualizzate e sistemi di apprendimento automatico, emerge una domanda che attraversa tanto la ricerca scientifica quanto la riflessione filosofica: che cosa accade quando una macchina impara senza poter davvero ricordare, o quando ricorda senza poter dimenticare? È in questo spazio di tensione che la letteratura, sorprendentemente, torna a offrire una chiave interpretativa ancora attuale.

Nel racconto Funes, el memorioso, pubblicato per la prima volta il 7 giugno 1942 sul quotidiano argentino La Nación e poi incluso nella raccolta Ficciones del 1944, Jorge Luis Borges (1899 1986) narra la storia di Ireneo Funes, un giovane che, dopo un incidente, acquisisce una memoria totale. Funes ricorda ogni dettaglio del mondo, ogni foglia, ogni variazione impercettibile del tempo. Ma questa memoria assoluta non lo rende più intelligente: lo immobilizza. Incapace di dimenticare, Funes non riesce a sviluppare il pensiero astratto. Borges suggerisce così un principio essenziale: il pensiero non coincide con l’accumulo di informazioni, ma con la capacità di selezionare, organizzare e, soprattutto, scartare. La memoria perfetta non è un ideale cognitivo, ma un ostacolo alla coscienza riflessiva. Questa intuizione letteraria trova oggi una risonanza concreta nei limiti strutturali dell’intelligenza artificiale contemporanea.

Negli ultimi trent’anni, IA e robotica hanno compiuto progressi significativi nelle capacità percettive, decisionali e operative. I sistemi sviluppati in centri come il MIT Computer Science and Artificial Intelligence Laboratory (CSAIL) negli Stati Uniti o l’Istituto Italiano di Tecnologia (IIT) di Genova sono ormai in grado di interagire con l’ambiente, apprendere da grandi quantità di dati e collaborare con gli esseri umani. Tuttavia, mentre queste tecnologie entrano nella vita quotidiana, cresce una riflessione critica sul loro impatto sulla nozione di identità, coscienza e autocoscienza.

Uno dei nodi centrali di questo dibattito riguarda la memoria artificiale. Ulises Cortés García (nato nel 1960, Messico), professore di Intelligenza Artificiale presso la Universitat Politècnica de Catalunya e direttore dell’area AI al Barcelona Supercomputing Center – Centro Nacional de Supercomputación (BSC-CNS), ha più volte sottolineato come la tecnologia sia già in grado di estendere le capacità percettive e motorie umane attraverso interfacce biofisiche. Tuttavia, “integrare memoria con memoria — per esempio conservare l’organizzazione mentale in un microchip — è ancora fantascienza”. Il limite non è soltanto tecnico, ma concettuale: la memoria umana è inseparabile dall’esperienza vissuta, dalla corporeità e dal contesto emotivo, elementi che i sistemi digitali non possiedono in senso proprio.

Questo divario diventa evidente nei grandi modelli linguistici basati su architetture Transformer, introdotte nel 2017 da Ashish Vaswani e colleghi (Google Brain, Stati Uniti). Questi modelli, oggi al centro di applicazioni industriali e sociali, soffrono di un problema noto come catastrophic forgetting (oblio catastrofico). Quando apprendono nuove informazioni, tendono a perdere parte delle conoscenze precedenti. Il fenomeno è stato formalizzato in ambito accademico da Ian Goodfellow e altri ricercatori nel 2013 presso l’Université de Montréal, Canada, ed è considerato uno dei principali ostacoli allo sviluppo di un’IA realmente adattiva nel tempo.

La ricerca sul continual learning tenta di affrontare questa fragilità introducendo memorie temporanee, meccanismi di ripetizione controllata e architetture ibride. Tuttavia, come evidenziato anche nei report del Allen Institute for Artificial Intelligence (AI2) negli Stati Uniti, tali soluzioni non risolvono il problema alla radice: l’assenza di una memoria strutturata, gerarchica e selettiva paragonabile a quella biologica.

Nel 2025, alla conferenza internazionale NeurIPS 2025, uno dei principali forum mondiali sulla ricerca in intelligenza artificiale, Google Research ha presentato il paradigma del Nested Learning. L’approccio propone di ripensare l’architettura dei modelli come un sistema di memorie multilivello, ciascuna con tempi di aggiornamento differenti, ispirandosi alla gerarchia temporale studiata dalle neuroscienze. Il cervello umano, come documentato da istituzioni come il Max Planck Institute for Brain Research, consolida le informazioni su scale temporali diverse, distinguendo tra esperienza immediata e memoria a lungo termine.

All’interno di questo quadro teorico si colloca HOPE (Higher-Order Persistent Engine), un modello sperimentale sviluppato da Google nel 2025. HOPE introduce meccanismi di auto-ottimizzazione che consentono al sistema di modificare il proprio apprendimento nel tempo, migliorando la capacità di adattamento senza cancellare il passato. I risultati preliminari indicano un miglioramento nelle prestazioni di memoria a lungo termine e nel ragionamento complesso rispetto alle architetture tradizionali. Ma l’impatto sul piano psicologico e culturale, la crescente integrazione tra individuo e sistemi intelligenti solleva interrogativi sulla formazione dell’identità. In un articolo pubblicato l’11 luglio 2025 su Frontiers in Psychology, la ricercatrice Jeena Joseph (nata nel 1985, India) analizza il concetto di algorithmic self, sostenendo che l’identità personale non si sviluppa più esclusivamente attraverso processi interiori, ma viene co-costruita dall’interazione continua con algoritmi che filtrano esperienze, relazioni e narrazioni autobiografiche. Dal punto di vista filosofico, questa dinamica riapre il problema della coscienza e dell’autocoscienza.

Se la coscienza implica non solo memoria, ma consapevolezza di sé nel tempo, allora un sistema che ricorda senza comprendere, o che apprende senza esperienza vissuta, resta ontologicamente distinto dall’umano.

 

Redazione

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.