Breaking News
13.12.2025

Intelligenza Artificiale: Studenti attenzione, ci stiamo ammalando tutti di epistemia e non lo sappiamo ancora: ecco di cosa si tratta

Dino Galuppi

A causa dell’uso continuo di strumenti di intelligenza artificiale come le chatbot che rispondono a domande, spiegano concetti complessi, producono testi fluidi e articolati ci stiamo sempre più illudendo che sia sempre tutto vero quando in realtà l’AI si limita semplicemente a generare linguaggio plausibile che sembra corrispondere al vero ma non fornisce la certezza della verità.

Questa illusione di conoscenza che porta tutti noi a credere che l’IA “sappia” davvero ciò che dice, è un fenomeno che solleva interrogativi importanti sul rapporto tra forma, verità e comprensione delle cose che gli esperti hanno battezzato come epistemia.

Cosa è l’epistemia

I modelli linguistici di ultima generazione sono progettati e continuamente sviluppati per produrre sempre più risposte coerenti dal punto di vista sintattico e stilistico. Il loro funzionamento si basa in sostanza sull’individuazione di pattern statistici all’interno di enormi quantità di testi: parole che seguono altre parole, frasi che “suonano giuste” nel contesto del discorso. Ma questo approccio formale non implica necessariamente una comprensione autentica dei contenuti.( fonte Il Quotidiano).

Il concetto di “epistemia” clonato dagli esperti che ne stanno studiando le cause ed effetti del fenomeno descrive proprio questo cortocircuito. In sostanza il linguaggio fluido e sicuro dell’IA genera nella persona che ne sta usufruendo, la sensazione di trovarsi di fronte a un soggetto competente, capace di conoscenza e che può di conseguenza dire una cosa sbagliata, quando in realtà il modello è costruito senza la consapevolezza né una struttura concettuale del mondo. Le risposte possono risultare così sicuramente convincenti ma non per questo non possono essere in realtà incomplete, imprecise o semplicemente errate.

La fluidità della risposta unita alla “struttura logica apparente e il tono assertivo” può essere interpretata dai non addetti ai lavori come segnali di competenza. Questo approccio potrebbe portare, se non si conosce il fenomeno e gli effetti, a sovrastimare l’affidabilità delle risposte, anche in assenza di verifiche. Non è l’IA a “ingannare”, ma lo sono soprattutto i nostri meccanismi cognitivi, che associano la buona forma espressiva alla verità dei contenuti. In questi contesti l’epistemia diventa un fenomeno sociale, non più solo tecnologico.

Lo studio

Un recente studio pubblicato su Pnas e condotto da un team di ricerca guidato da Walter Quattrociocchi, docente dell’università La Sapienza di Roma nonché responsabile del Center of data science and complexity for society, ha analizzato per la prima volta in modo sistematico come sei modelli linguistici di ultima generazione, tra cui i famosi ChatGPT di OpenAI, Gemini di Google o Llama di Meta, “operazionalizzano il concetto di affidabilità“.

Come si legge nella nota che annunciava la pubblicazione del progetto, “il lavoro confronta le loro valutazioni con quelle prodotte da esseri umani ed esperti del settore (NewsGuard, Mbfc), utilizzando un protocollo identico per tutti: stessi criteri, stessi contenuti, stessa procedura. Il focus non è sull’accuratezza del risultato finale, ma su come il giudizio viene costruito”.(fonte Wired).

Stiamo davanti quindi ad un fenomeno delicato e pericoloso di costruzione di una “impressione di conoscenza” perché deleghiamo completamente all’AI la risposta al nostro quesito senza effettuare alcuna verifica e controllo di quello che ci viene detto.

Questo aspetto se non controllato e gestito potrebbe portare ad effetti negativi a lungo termine soprattutto nei ragazzi e studenti che tenderanno a fidarsi delle risposte dell’AI senza introdurre l’aspetto critico e senza aver imparato veramente quella conoscenza.

Come fare per uscire da questo loop?

La possibile soluzione ce la forniscono direttamente gli esperti che hanno condotta la ricerca pubblicata su Pnas. Il segreto starà nella capacità di saperne di più dell’IA stessa, o quanto meno sarà importante delegare solo conoscendo la direzione su dove si sta andando e non delegare ad occhi chiusi.

Cari studenti, voi che siete nella fase di apprendimento e state costruendo il vostro futuro dovete entrare nell’ottica che gli strumenti di AI non devono sostituire il vostro livello di conoscenza che anzi va ulteriormente alzato e mantenuto costantemente aggiornato.

Altro aspetto importante è acquisire la piena consapevolezza e conoscenza degli strumenti di AI perché questa è l’unica maniera di essere in grado di distinguere e riconoscere risultati falsi da quelli veri.

In generale quindi fenomeni come quello dell’epistemia così come le fake news si combattono con la formazione con lo studio approfondito e con la consapevolezza dell’uso anche micidiale che possono avere questi strumenti.

Ma si può fare, non è una sfida impossibile e allora vedremo come gli stessi sistemi di AI diverranno veri e propri compagni di studi e nella vita.

Non sei ancora un utente TS+?

Registrati gratuitamente in pochi passi per ricevere notifiche personalizzate e newsletter dedicate