Home Didattica IA a scuola, gli alunni copiano? Un docente: “Il rito dei compiti...

IA a scuola, gli alunni copiano? Un docente: “Il rito dei compiti a casa va rivisto, prove finali solo orali” – INTERVISTA

CONDIVIDI

L’intelligenza artificiale è ormai entrata nella vita di tutti i giorni, e di conseguenza anche a scuola. Si parla di IA e didattica da tempo, ma spesso senza capire effettivamente a cosa può servire e che vantaggi può dare a docenti e studenti.

Intelligenza artificiale a scuola, ma è utile chiedersi se sostituirà i docenti? Come usarla e le norme – FOCUS

Intelligenza artificiale a scuola, un’occasione per cambiare la didattica

Andiamo per ordine: purtroppo molti insegnanti, per varie ragioni, hanno, di base, paura del nuovo. Ovviamente quindi anche l’intelligenza artificiale è vista con sospetto; si pensa che serva agli studenti per copiare meglio senza essere scoperti, si immaginano subito classi con robot al posto dei docenti in carne e ossa, studenti con visori che coprono i volti.

Prima di passare a conclusioni affrettate e immaginare mondi distopici, potrebbe essere utile approfittare dell’avvento dell’IA per ripensare il proprio modo di fare didattica, anche a piccoli passi e senza stravolgere le proprie abitudini più di tanto. Ma come?

Per parlare di questo tema abbiamo chiesto l’opinione di un docente di lettere e formatore, Giovanni Morello, che si è subito avvicinato agli strumenti di intelligenza artificiale con curiosità e senza particolari pregiudizi. Ecco cosa ci ha raccontato.

ChatGpt: le allucinazioni sono un vaccino, il rischio più grosso è la passività mentale

Secondo Morello avere paura del nuovo è naturale, ma c’è di più: “La paura del nuovo è  connaturata con l’essere umano, in quanto il nuovo ci costringe ad una rimodulazione dei nostri schemi e questo ci porta un po’ fuori dalla nostra comfort zone. L’IA generativa è del resto una innovazione tecnologica particolarmente potente e pervasiva ed è quindi perfettamente comprensibile una certa apprensione, se non un vero e proprio disorientamento, nei suoi confronti. Poi ci sono anche elementi oggettivi. Con una tecnologia così potente, è chiaro che ci sono effetti di rimando, diciamo, potenzialmente entropici. Un primo problema che viene avvertito riguarda le cosiddette allucinazioni: il dispositivo ti può dare risposte sbagliate o inventarsene di sana pianta e quindi non siamo sicuri di poterci fidare. Questo avviene perché l’IA generativa ha una struttura elaborativa di natura probabilistica, non deterministica, per cui opera scommettendo più che deducendo in senso stretto, sulla base del suo corpus di conoscenze. Se va bene ok, se no, pazienza: è questo il modus operandi della macchina”.

“Le allucinazioni ci sono, è vero, però man mano vanno diminuendo, soprattutto nei campi più battuti, dove i set di addestramento sono stati incrementati e i vari parametri matematici (quelli che servono per scommettere sulla risposta più corretta e utile) sono stati gradualmente tarati e perfezionati. C’è però da dire che, nello stesso tempo, l’allucinazione è anche una sorta di vaccino contro un altro pericolo ancora più potente dell’IA. L’allucinazione puoi gestirla con una verifica puntuale, ma il rischio più grosso è quello della passività mentale. C’è il grossissimo rischio che ci si adagi sulle possibilità offerte dall’IA e si smetta di pensare, per certi versi. È successo di sentire anche qualche docente che, di fronte all’intenzione di elaborare delle UDA, abbia detto fin dall’inizio: ‘Bene, perché non lo chiediamo all’intelligenza artificiale?’. Quindi il rischio che vengano meno una serie di attività mentali importanti, creative, cognitive di vario tipo, è molto forte. Questo può succedere con gli studenti, ma può verificarsi anche con adulti, compresi gli insegnanti. Da questo punto di vista, le allucinazioni sono persino un vantaggio, perché ci costringono a non essere troppo passivi, a verificare usando il proprio senso critico”, ha affermato.

“I piloti siamo noi, l’IA non è neanche un navigatore. I piloti siamo e dobbiamo rimanere noi. Questo non si deve perdere mai di vista. Quello che può fare obiettivamente l’IA è fornirci una serie di elaborazioni, informazioni e idee aggiuntive, e lo fa in brevissimo tempo. Il suo vantaggio è fondamentalmente questo: farci risparmiare (tanto) tempo”.

I rischi dell’IA sono innegabili e ce ne sono anche tanti, secondo il docente: “Un altro rischio grosso, che riguarda le nuove generazioni (e non solo le nuove) è quello affettivo, nel senso che l’IA ormai ha raggiunto un tale livello di efficacia espressiva che risulta persino empatica, per cui può succedere che un ragazzo – ma questo si nota ormai sempre di più anche con gli adulti, alcuni dei quali rinunciano perfino al supporto psicologico – incominci a intrattenere con l’IA una forma di rapporto affettivo, o almeno di strettissima fiducia. Molti ragazzi si confidano con i chatbot e chiedono soluzioni a problemi esistenziali molto grossi. O, semplicemente (il che sfiora l’assurdo, ma è anche molto significativo) si sentono dal chatbot ascoltati. Il rischio più grosso qui non è che il chatbot dia consigli sbagliati ai nostri ragazzi, ma che si sostituisca alle loro vere figure di riferimento, che sono innanzitutto i genitori”.

Poi ovviamente c’è il rischio dei bias cognitivi. Il dispositivo può essere vittima anche di bias, cioè di pregiudizi, determinati dal suo set di addestramento. Bias che possono certamente far sentire il loro peso, diciamo, sottilmente ideologico, sugli utenti (su un numero enorme di utenti nel mondo). E questo è un problema, anche politico, di notevole gravità.

Poi c’è un altro problema, quello dell’inquinamento. Perché, chiaramente, si tratta di macchine che consumano molta energia e molta acqua, necessaria per il loro raffreddamento. Quindi, per ogni risposta, diciamo, pigra o oziosa (evitabile) che può capitarci di chiedere al chatbot, forse sarebbe il caso di prendere in considerazione anche questo aspetto”.

“Come se ci fossero tanti docenti in classe”

Parlando di didattica, il docente ci ha spiegato: “ChatGPT, o chi per lui, non rappresenta una metodologia ma una tecnologia, che funziona solo se è a supporto di altre (buone, efficaci) metodologie didattiche. È semplicemente uno strumento che serve per far funzionare meglio il metodo didattico che ho scelto, non è un metodo didattico alternativo ad altri. In poche parole, usato fideisticamente, senza un minimo di visione didattica a supporto, non avrà grandi ripercussioni sulla qualità dell’apprendimento degli studenti. Questa è una prima cosa da considerare”.

“Seconda cosa: saper produrre materialmente dei prompt non significa saper utilizzare l’IA generativa, perché questi dispositivi migliorano di settimana in settimana e si arricchiscono di sempre nuove funzioni. Il docente che non dovesse aggiornarsi in modo adeguato, si troverebbe scavalcato dagli stessi studenti, che invece sono alla ricerca delle altre funzioni. Ci sono tante soluzioni tecniche che rappresentano vere opportunità didattiche nell’uso dell’IA, quindi è bene che il docente le conosca. Ci sono due aspetti, insomma: 1) la conoscenza tecnica dello strumento, e quindi le funzioni che man mano si vanno moltiplicando; 2) e la competenza didattica: una volta che conosco queste funzionalità, – peraltro in continuo work in progress -, devo saperle utilizzare a fini didattici. E questa è tutta un’altra faccenda”.

“L’elemento didatticamente più utile, emerso da quando è uscito ChatGPT, è certamente quello della personalizzazione educativa. Il dispositivo si comporta di fatto come un tutor, come un compagno più esperto (o come un docente a supporto): un supporto che ti segue passo passo, completamente a tua disposizione (giorno e notte, peraltro). Quindi l’insegnante può, ad esempio, svolgere una lezione in classe e poi fare in modo che sia l’IA generativa a supportare gli studenti nell’apprendimento dei contenuti, attraverso percorsi personalizzati. Per esempio, con spiegazioni, chiarimenti, esercitazioni o domande di verifica specifiche, tarate sulle esigenze concrete di quello specifico studente, che ha quei dubbi e quelle lacune (anche linguistiche), con quel personale ritmo di apprendimento (o con quelle specifiche esigenze di approfondimento).

Cambiano insomma i percorsi di apprendimento che quello studente viene indotto a fare, perché magari, anche relativamente allo stesso argomento di studio, recupererà, consoliderà o approfondirà certi aspetti diversi rispetto al suo stesso compagno di banco. Quindi è come se ci fossero, in quel momento, più assistenti o tutor contemporaneamente in classe. Non è un vantaggio da poco”.

Ci sono funzioni di ChatGpt davvero molto interessanti: “Ce ne sono tante. C’è una nuova funzione che si chiama ‘Studia e Impara’, che fa sì che il dispositivo non risponda direttamente ed esaustivamente al prompt generato dallo studente (poniamo, una domanda sulla Rivoluzione francese), ma ti indirizza maieuticamente alla risposta, in modo che a poco a poco sarai tu a tirare fuori le ipotesi necessarie. Questo è un aspetto molto utile, che ho testato più volte e che può avere un notevole impatto sull’apprendimento. Il chatbot finisce sempre, quando fai un prompt in modalità ‘Studia e impara’, con un’altra domanda. Non chiude il discorso. Insomma, ti induce a pensare, a fare collegamenti, ti ci fa arrivare a poco a poco. In base alla risposta che gli dai, lui valuterà se tu hai capito oppure no e si muoverà di conseguenza con le successive risposte, che saranno seguite da altrettanti inviti allo studente a generare le sue personali risposte. E così via, ricorsivamente”.

“Se c’è una possibilità la usi, senza aspettare decreti”

Ma sfatiamo qualche mito e rispondiamo a qualche obiezione sull’IA. Molti dicono che prima di buttarsi su queste nuove tecnologie bisognerebbe risolvere i problemi strutturali della scuola. Ecco cosa ha detto Morello: “Questa sindrome mi pare ben nota e si chiama benaltrismo. Un atteggiamento o assunto non molto vantaggioso, in genere. Se uno dovesse sempre aspettare che si verifichi altro (ben altro!), prima di modificare il proprio modo di operare, non si farebbe mai niente. Non c’è un ‘prima’ imperativamente propedeutico al dopo. Se c’è una tecnologia che può essere utilizzata oggi, a vantaggio del docente e  dello studente, va utilizzata, senza troppi alibi a supporto. Se c’è una opportunità concreta, è giusto usarla, se va realmente a vantaggio dei nostri ragazzi”.

Come usare l’intelligenza artificiale in classe? Un docente di lettere potrebbe essere avvantaggiato

Cosa si può consigliare ad un docente che vuole approcciarsi all’uso dell’intelligenza artificiale, magari non l’ha ancora fatto, anche perché non è avvezzo alle tecnologie? “Non c’è una differenza specifica tra preparazione umanistica e una preparazione scientifica (di uno studente o di un docente), in questo ambito. In uno studente, una migliore preparazione umanistica potrebbe risultare un vantaggio dal punto di vista della qualità della scrittura del prompt, mentre uno studente con una maggore preparazione scientifica potrebbe pervenire ad una strutturazione più essenziale e logicamente ordinata di quel prompt”, ha detto l’insegnante.

“La questione chiave, a maggior ragione quando ti si stravolge il mondo attorno (e l’IA lo stravolge, non ci sono dubbi), è la formazione. La formazione può essere fatta in diversi modi: ci sono dei tutorial su internet, si lavora con chi la sa già utilizzare oppure si fa un corso specifico. I chatbot non sono strumenti difficili da usare. La cosa difficile è usarli bene sul piano didattico, cioè in modo che favoriscano effettivamente l’apprendimento e non forniscano solo qualche sparuto e secondario vantaggio. Devi capire quali funzioni sono più utili, fino a che punto e sulla base di quale metodologia risultano più utili, e quali funzioni possono essere invece inutili o persino negative”.

C’è un altro aspetto: i docenti non si occupano solo di didattica, ma anche di burocrazia. I docenti si lamentano spesso di non avere tempo, banalmente, per fare proprio didattica in classe perché hanno troppi adempimenti, troppa burocrazia. L’intelligenza artificiale può essere un aiuto per queste mansioni burocratiche, così da avere tempo per insegnare più serenamente? “Anche per questo ci sono tante funzioni che possono consentirci di risparmiare tempo su aspetti di routine; l’intelligenza artificiale può fare tanto lavoro di routine, il lavoro, per così dire, sporco. Anche lì, bisogna sapere però cosa fargli fare e come“.

Andiamo nel concreto; ecco gli strumenti utilizzati dal docente: “Io ho cominciato a usarla dal 2023. Ho usato e uso prevalentemente ChatGpt, ma uso anche Gemini e qualche volta Perplexity, un po’ meno Grok. Uso moltissimo NotebookLM  e uso anche Gamma o Julius. Ora uso anche molto Monday”.

Intelligenza artificiale, gli studenti copiano? Un docente attento se ne accorge

Gli studenti, ovviamente, usano l’IA anche per copiare, ma gli insegnanti non tardano ad accorgersene. Ecco qual è stata l’esperienza del docente: “Mi è capitato di sentirmi proporre elaborati di un certo livello da parte di studenti che fino a quel momento non avevano avuto questo tipo di prestazioni. L’insegnante, ovviamente, lo vede subito. In effetti, il rito della verifica dei compiti svolti a casa, per esempio, va rivisto. Non ci si può limitare a dire: ‘Leggimi il tuo elaborato sulla lezione di ieri’. Quello che hanno scritto, se non mi convince molto in termini di effettiva paternità, non lo considero molto. La prova finale, per me, è quella orale, in cui loro cioè spiegano cosa hanno scritto, lo motivano e supportano con le loro considerazioni, i loro collegamenti e il loro linguaggio. In questo modo, il meccanismo del cheating (barare) si smonta immediatamente. L’elaborato scritto a casa, per me, non soddisfa in alcun modo il compito assegnato. Saper commentare personalmente l’elaborato svolto a casa soddisfa quel compito. Non meno di questo. Se risulta che è stato copiato, non è stato neanche svolto”.