IA, tra promessa e rischio: perché il nodo è (ancora) l’umano

IA, tra promessa e rischio: perché il nodo è (ancora) l’umano

IA, tra promessa e rischio: perché il nodo è (ancora) l’umano. Il 10-11 ottobre a Lugano: colloquio tra tecnologia e filosofia

Markus Krienke

Nel dibattito sull’intelligenza artificiale si parla molto di algoritmi, modelli e regolamenti. Meno – eppure è decisivo – dell’immagine di essere umano che proiettiamo su queste tecnologie, oppure che ci facciamo implicitamente “dettare” da esse. È così, mentre l’IA estende funzioni tipicamente umane (percezione, linguaggio, decisione), moltiplica efficienza in amministrazione, sanità ed educazione, e può accelerare persino la nostra corsa contro il tempo in materia di clima e ambiente, con l’espansione delle sue capacità crescono rischi di manipolazione e fake news, diseguaglianze di accesso, bias e impatti ambientali. La nostra intelligenza, di fronte a questo sviluppo, sarà presto “antiquata”? Sarà veramente così che finalmente potremo realizzare le vere dimensioni umane tra affetti e solidarietà, relazioni e creatività, o non ne saremo più capaci – oppure semplicemente non ce ne sarà più bisogno? Nell’insieme di queste domande, all’improvviso scopriamo che – nonostante la miriade di pubblicazioni e progetti di ricerca in atto – manca una teoria coerente dell’IA capace di orientare etica e policies: il settore avanza per via empirica, rendendo difficile prevedere comportamenti e danni collaterali, e ponendo al regolatore delle sfide inedite.

Programma III Colloquio philo-tech

In tutto ciò, la posta in gioco non è però astratta: come accennato, ne va di mezzo la nostra “immagine dell’uomo” cioè le nostre convinzioni condivise e non esplicitamente tematizzate come nelle nostre società pensiamo e “trattiamo” gli altri e le nostre relazioni. Nel frattempo ci rendiamo conto – più o meno – che viviamo più ore online che dormiamo e l’IA entra nella quotidianità, personalizza servizi, decide priorità, spesso “per” noi, spesso “al posto di” noi. Allo stesso momento, l’iperbole linguistica – “le macchine pensano, conoscono, decidono” – nasconde sempre di più che siamo noi a conoscere e decidere, magari “con” le macchine: attribuire loro categorie proprie della persona produce l’“effetto ELIZA”, una fiducia quasi interpersonale verso sistemi statistici addestrati sui nostri dati. Stiamo dunque “creando” sempre di più questa nuova realtà che si rivela sempre più “transumana”? Qui emerge il pericolo di spersonalizzare l’intelligenza – la nostra! – e di confondere la somiglianza funzionale con l’esperienza cosciente e intenzionalità.

Intanto si riallineano i poteri. La geopolitica dell’IA corre più veloce della politica, mentre la re-intermediazione della realtà affida a poche piattaforme “ecosistemi” che controllano infrastrutture, dati e interconnessioni, spostando baricentri di potere dall’istituzionale al corporate. Non è solo mercato: è architettura della sfera pubblica, dove ranking e raccomandazioni orientano visibilità, conversazioni, perfino la deliberazione democratica – anche tramite nudge precognitivi non sempre trasparenti. Se non regolati, indeboliscono la libertà e la qualità del consenso democratico.

C’è poi una sfida educativa e culturale: non a caso parliamo di analfabetismo digitale e funzionale tra i giovani, relazioni mediate da dispositivi, bisogno di criteri pedagogici aggiornati. Le imprese avvertono rischi concreti (distorsioni, disallineamento valoriale) e cercano principi etici; ma senza una cultura organizzativa e competenze diffuse, i codici restano carta. Anche il regolatore – “AI Act” incluso – va integrato da valori centrati sulla persona e da pratiche civiche che mettano al centro comprensione, partecipazione, sperimentazione responsabile.

Il punto fermo che attraversa l’intero quadro è l’intenzionalità dell’intelligenza umana, cioè il fatto che solo essa può avere un accesso diretto alla realtà e individuarci un senso: in questo modo – narrativo, simbolico, relazionale – si realizza l’immagine dell’essere umano. Pertanto, abbiamo bisogno di un nuovo “narrativo” della nostra umanità, un’immagine dell’uomo per l’era digitale. Ecco perché a Lugano si svolgerà tra pochi giorni un simposio che mette in dialogo competenze tecnologiche e umanistiche, ponendo lo sguardo sul futuro: il “colloquio philo-tech”, con cinque tavole rotonde: tecnologIA, filosofIA, fantàsiIA, democrazIA, teologIA, e due esperti che introdurranno entrambe le giornate dei lavori: Antonello Barone del Festival del Sarà di Termoli e Claudio Novelli dell’Università di Yale.

Per ottenere più informazioni, anche come iscriversi (e come seguire online a distanza): link.

Vi aspettiamo per andare in cerca insieme della bussola antropologica chiara per il nostro tempo, aspettando anche i vostri interventi. La sfida – culturale prima che tecnica – è custodire la misura umana del digitale, perché l’innovazione rimanga al servizio della libertà e della dignità di tutti.

foto intelligenzaartificiale.it

Redazione

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.