Le nuove Indicazioni Nazionali per i Licei dedicano all’intelligenza artificiale un’attenzione inedita rispetto ai documenti curricolari precedenti. Il tema attraversa la Premessa generale, i profili di competenza trasversali e le indicazioni disciplinari di quasi tutti gli insegnamenti. Questa pervasività rende le Indicazioni un documento di sicuro interesse. Con le Indicazioni il sistema liceale italiano assume l’IA come oggetto culturale e come dispositivo didattico in modo sistematico, non episodico.
Tuttavia, una lettura analitica del testo — condotta sul lessico, sulle metafore operative, sulle strutture argomentative e sui modelli relazionali impliciti — rivela un’architettura concettuale che merita una discussione franca. La tesi che si argomenterà è la seguente: le Indicazioni costruiscono una concezione dell’IA che è internamente contraddittoria, storicamente situata in modo anacronistico e pedagogicamente consolatoria più che operativa.
Il cuore concettuale delle Indicazioni si trova nella Premessa, in una sezione intitolata “L’intelligenza artificiale e la sfida dell’umano: verso una nuova coscienza digitale”. La formulazione che sintetizza il modello relazionale proposto è questa:
“l’IA non è un’entità sostitutiva ma un dispositivo da governare, il cui impiego agisce da ‘copilota’ al servizio di un’agency responsabile”
La metafora del copilota è la più rivelatrice del documento. Nel senso comune, e nella letteratura tecnica sul Human-AI Teaming, il copilota è un agente con ruolo complementare: co-gestisce, co-decide, interviene in modo adattivo. Nelle Indicazioni, però, il copilota non co-pilota: esegue. Lo chiarisce la formula immediatamente successiva, che descrive l’integrazione metodologica come condizione in cui «lo strumento potenzi, senza mai sostituire». La direzione causale è unidirezionale e asimmetrica: umano → IA → prodotto. La simmetria relazionale non è mai tematizzata.
Non va poi taciuto il fatto che le Indicazioni usano il termine copilota (messo tra virgolette) che come è noto identifica in maniera esplicita un prodotto di Microsoft 365. Scelta decisamente inusuale per il Ministero che dovrebbe attenersi alla logica della neutralità tecnologica invece che suggerire implicitamente un prodotto commerciale.
Il modello sottostante alla Indicazioni è quello dell’augmentation tool: l’IA amplifica capacità umane preesistenti, ma non è un agente con cui si co-costruisce conoscenza. Nella letteratura di riferimento — dai framework del MIT Media Lab ai documenti dell’OECD sull’AI in Education — questo è il modello più conservativo tra quelli disponibili, e corrisponde alla fase pre-generativa dell’IA (assistenti vocali, sistemi di raccomandazione, software adattivi).
A livello di indicazioni operative, un secondo modello emerge in modo diffuso, sebbene mai nominato come tale: quello del human as validator. Il docente è chiamato a «mantenere la responsabilità della validazione dei contenuti e della verifica critica dei risultati prodotti dai sistemi di intelligenza artificiale». Lo studente deve sviluppare la capacità di «valutare criticamente l’output» dell’IA. L’IA genera, l’umano valida, seleziona, corregge.
Questo schema è coerente e internamente logico. Ma presuppone una condizione che il testo dà per scontata senza fondarla: che il soggetto umano — docente o studente — disponga degli strumenti epistemici necessari per validare l’output algoritmico nel merito. Il problema è che questa condizione non è universalmente vera, e diventa sempre meno vera man mano che i sistemi IA operano su domini specialistici complessi o producono sintesi di letteratura che eccedono la competenza del singolo valutatore. Il modello di oversight umano funziona bene per gli usi elementari dell’IA; diventa una finzione epistemica per gli usi avanzati.
Il testo della Premessa introduce, in un passaggio, un’immagine concettualmente più ricca:
“Il dispositivo tecnologico deve fungere da specchio cognitivo, sollecitando l’allievo a un dialogo dialettico in cui egli impari a interrogare l’algoritmo, a svelarne i pregiudizi”
Questa formulazione si avvicina al modello del Socratic AI o dell’AI-mentored learning: l’IA come interlocutore che stimola metacognizione, che provoca domande, che rende visibili i propri limiti come occasione di apprendimento. È un modello pedagogicamente fertile, coerente con la tradizione dialogica dell’educazione e con le pratiche più avanzate di critical AI literacy.
Il problema è che questa immagine rimane al livello metaforico. Non è operazionalizzata in alcuna pratica didattica concreta, non genera obiettivi specifici di apprendimento, non modifica la struttura delle competenze attese. Emerge e scompare in un singolo capoverso, senza conseguenze curricolari.
Il modello del Human-AI Teaming — in cui umano e sistema IA sono agenti complementari che co-costruiscono conoscenza con ruoli adattativi e reciprocamente influenti — è invece completamente assente. Questa non è un’omissione accidentale: è coerente con la cornice filosofica adottata, che esclude per principio qualsiasi forma di simmetria tra umano e macchina.
Le Indicazioni ancorano esplicitamente la propria concezione dell’IA a una tradizione filosofica precisa. Il riferimento a Maritain e Mounier nella sezione sul rispetto, e l’intera architettura argomentativa della sezione sull’IA, configurano un frame personalistico: la persona umana ha primato ontologico, l’IA è strutturalmente priva di «cifra stilistica, di ispirazione etica e di passione euristica», e la scuola è chiamata a «riaffermare il primato della persona e della sua libertà».
Questa posizione è filosoficamente difendibile e culturalmente radicata nella tradizione pedagogica italiana. Il problema non è la sua legittimità, ma la sua operatività curricolare. Il frame personalistico è stato costruito storicamente per rispondere a sfide diverse — la massificazione industriale, la tecnocrazia novecentesca, i rischi della standardizzazione — e produce categorie adeguate a quel contesto. Applicato agli LLM, genera una distinzione binaria tra «esecuzione algoritmica propria della macchina» e «attività speculativa, creativa e spirituale che definisce l’essere umano» che è filosoficamente sostenibile ma didatticamente sterile: non dice nulla su come progettare un’unità di apprendimento, strutturare una valutazione autentica, o formare uno studente che interagirà con sistemi IA per tutta la vita professionale.
La cornice consolida un’identità pedagogica rassicurante, ma non attrezza gli studenti alla realtà del fenomeno.
5.1 La natura conversazionale dell’IA generativa
Gli studenti non usano i sistemi IA generativi come si usa uno strumento. Ci parlano. La relazione ha struttura dialogica, iterativa, co-costruttiva: il prompt modifica l’output, l’output modifica il prompt successivo, il risultato finale emerge da una negoziazione che non è riducibile alla categoria di “uso strumentale”. Le Indicazioni non dispongono di categorie per questo tipo di interazione, e la parola “dialogo” — quando compare — non è mai elaborata in termini di pratiche didattiche.
5.2 Il problema dell’autorialità distribuita
Quando uno studente co-costruisce un testo iterativamente con un LLM — non lo copia, non lo usa come fonte, ma elabora, riprende, modifica, riscrive in dialogo con il sistema — chi è l’autore? La categoria di “prodotto finale surrogabile dalla macchina” su cui le Indicazioni fondano la revisione della valutazione presuppone che l’output sia identificabile e attribuibile. In un processo co-generativo questo non è più vero in modo stabile. L’autorialità diventa distribuita, processuale, negoziata. Le Indicazioni non tematizzano questo problema: spostano la valutazione dal prodotto al processo senza chiedersi come il processo stesso cambia quando un agente non umano vi partecipa strutturalmente.
5.3 Il paradosso della validazione
Il modello human as validator (completamente diverso dal concetto di Human As Curator proposto da Susanna Sancassani e Daniela Casiraghi nel recentissimo volume Il potere di imparare) presuppone che il soggetto umano possa validare l’output del sistema IA. Ma la validazione richiede competenza nel dominio su cui il sistema ha operato. Un LLM che produce una sintesi su un tema scientifico complesso, o che genera un’analisi statistica su dati reali, produce output che non è validabile con gli strumenti epistemici del curricolo liceale. Il docente che “mantiene la responsabilità della verifica critica” esercita un controllo reale solo negli ambiti in cui la sua competenza è superiore o almeno equivalente a quella del sistema. Fuori da questi ambiti, la validazione è nominale. Le Indicazioni trattano questa asimmetria come se non esistesse.
La contraddizione più rilevante non è tra sezioni diverse del testo, ma all’interno della stessa cornice argomentativa. Le Indicazioni affermano simultaneamente:
A. L’IA è uno strumento, un dispositivo, un copilota subordinato → il suo impiego non modifica la struttura dell’agency umana, solo la potenzia.
B. Lo studente deve «interrogare l’algoritmo», «svelarne i pregiudizi», condurre un «dialogo dialettico» con esso → l’IA ha una forma di interlocuzione che giustifica l’interrogazione, il confronto, il disaccordo.
Se l’IA è puramente strumentale, non si interroga: si usa, si regola, si spegne. Se si interroga e si dialoga — se i suoi «pregiudizi» sono qualcosa che va svelato attraverso un processo critico — allora ha una forma di presenza epistemica che il testo nega per principio filosofico ma ammette per necessità pratica. La contraddizione non è risolta perché le Indicazioni non dispongono di una teoria dell’IA sufficientemente elaborata: sovrappongono un frame filosofico pre-algoritmico a un lessico operativo che emerge dall’uso quotidiano dei sistemi generativi, senza mediazione teorica.
Al momento della redazione delle Indicazioni erano disponibili — nella letteratura internazionale di pedagogia e AI education — framework teorici più aggiornati e operativamente più produttivi.
Il concetto di centaur knowledge elaborato da Garry Kasparov a partire dall’esperienza degli scacchi computer-assistiti descrive una competenza ibrida in cui umano e IA producono risultati superiori a quelli che ciascuno otterrebbe separatamente. Questa competenza non è la somma di “uso critico” + “validazione”: è una forma cognitiva qualitativamente diversa, che richiede una pedagogia della collaborazione, non del controllo.
Il critical AI literacy sviluppato nella letteratura anglosassone (Buckingham, Scharber, Williamson) va ben oltre il «comprendere il funzionamento di base degli algoritmi»: include la comprensione delle scelte di design, dei meccanismi di produzione del bias, delle strutture di potere che determinano cosa un sistema IA ottimizza e per chi. Nelle Indicazioni, la competenza critica sull’IA è formulata come capacità di «valutarne le opportunità e i limiti» — una formulazione generica che non implica nessuna conoscenza dei meccanismi sottostanti.
Il framework del constructive alignment con agenti IA — revisione sistematica di obiettivi, attività e valutazione sapendo che l’IA è dentro il processo, non fuori — avrebbe richiesto di riprogettare la struttura stessa degli obiettivi di apprendimento, non di aggiungere “uso consapevole dell’IA” come competenza digitale trasversale accanto alle altre.
Nessuno di questi framework è presente nel testo, nemmeno come riferimento implicito.
È necessario a questo punto nominare la funzione che il modello svolge, al di là di quella dichiarata. Il modello strumentale-personalistico assolve una funzione che non è epistemica ma difensiva:
Nulla di questi obiettivi è illegittimo in sé. Ogni sistema educativo ha bisogno di una certa stabilità identitaria per funzionare. Il problema è che le Indicazioni presentano questa funzione difensiva come analisi del fenomeno. Descrivono l’IA come uno strumento perché vogliono che lo sia sul piano normativo, non perché lo sia sul piano ontologico. Confondono la prescrizione con la descrizione, e questa confusione ha conseguenze curricolari concrete.
Un docente che legge le Indicazioni e le assume come guida operativa riceve le seguenti indicazioni implicite:
Queste indicazioni non sono sbagliate. Sono insufficienti. Non preparano il docente — né lo studente. Una scuola che forma gli studenti al modello “usa l’IA come strumento e validane criticamente l’output” produce diplomati già inadeguati al 2025, figurarsi al 2030. I profili professionali emergenti non richiedono supervisori di output IA — richiedono soggetti capaci di:
Una scuola che forma gli studenti al modello “usa l’IA come strumento e validane criticamente l’output” produce diplomati già inadeguati al presente, non al futuro.
L’obiettivo di questo articolo non è liquidare le Indicazioni come un documento privo di valore. Contengono, soprattutto nelle sezioni disciplinari più elaborate, spunti di indubbio interesse: il tentativo di connettere l’IA alla storia della matematica e della modellizzazione, l’inserimento dell’IA come oggetto di analisi filosofica, la proposta di utilizzare la comparazione tra testi umani e testi generati come strumento di analisi retorica e stilistica sono indicazioni che un docente riflessivo può sviluppare in modo produttivo.
Ma la cornice teorica che le unifica è inadeguata al fenomeno che intende orientare. Ed è precisamente perché le Indicazioni ambiscono a essere un documento di indirizzo culturale — non solo operativo — che questa inadeguatezza merita di essere discussa apertamente.
I docenti che lavorano con questi testi non hanno bisogno di conformarsi a un modello già superato: hanno bisogno di strumenti per andare oltre ciò che le Indicazioni riescono a dire, mantenendone la preoccupazione legittima — la centralità della persona, la qualità della relazione educativa, il primato del giudizio critico — senza restare prigionieri di una ontologia dell’IA che l’IA stessa ha già reso obsoleta.
La domanda che le Indicazioni non riescono a porre — e che spetta ai docenti porre autonomamente — è questa: come si forma un soggetto capace di esercitare agency in un mondo in cui una parte crescente dei processi cognitivi è co-prodotta con sistemi non umani? Non “come si usa l’IA in modo responsabile“, ma “come si diventa qualcuno in un ambiente in cui l’IA è strutturalmente presente nella produzione della conoscenza“.
Questa è la domanda pedagogica del nostro tempo. Le Indicazioni la sfiorano, la nominano, e poi si ritraggono verso una risposta più rassicurante. Il compito di rispondervi rimane, intatto, ai docenti.