Home Attualità Compiti a casa, più di metà classe li fa svolgere a ChatGpt:...

Compiti a casa, più di metà classe li fa svolgere a ChatGpt: sono inutili perché i docenti non possono controllare gli alunni?

CONDIVIDI

ChatGpt è ormai un prezioso aiutante per moltissimi studenti. Fin qui non ci sarebbe nulla di male; l’uso dell’intelligenza artificiale per studiare con maggior efficienza, per rielaborare concetti in modo rapido e chiaro, senza dimenticare di attingere a fonti sicure, non costituisce un problema.

Il docente si è subito insospettito

Al contrario, lo è quando si fanno svolgere i compiti per casa direttamente a strumenti di questo tipo. Questo è quanto accaduto in una scuola di Cremona: 18 studenti su 23 di una classe terza media hanno fatto fare a ChatGpt il tema a loro assegnato come compito per casa nel weekend. Lo riportano Il Fatto Quotidiano e Cremona Sera.

I ragazzi non hanno nemmeno riletto ciò che hanno scritto usando il trucchetto. Quindi poi, messi di fronte ai propri elaborati, non sono stati in grado di capire il contenuto del testo. Inoltre l’insegnante si è insospettito dalla mancanza di errori e dalla qualità della costruzione del testo, probabilmente superiore al loro livello.

Paolo Ferri, professore ordinario di Tecnologie della formazione all’Università Milano-Bicocca, a Il Giorno ha detto: “I professori dovranno ripensare ai compiti a casa, puntando proprio sulle esperienze dei ragazzi. E poi i momenti di verifica dovranno essere necessariamente fatti in classe, meglio ancora se oralmente”.

ChatGpt, cosa possono fare i docenti?

Un docente di Lingua e Letteratura Italiana e di Storia, ha detto: “Sulle versioni di latino ormai si trova di tutto, già confezionato. Per l’italiano, soprattutto quando ci sono compiti assegnati a casa senza il controllo diretto del docente, accade spessissimo. Quando gli studenti arrivano in prima di solito fanno errori grammaticali, con un lessico stringato e povero, con tanti errori di ortografia. In classe ovviamente non possono usare l’IA perchè sono sotto controllo del docente, quindi nelle verifiche funziona ancora il ‘vecchio sistema’. Sulle lingue come greco e latino si trovano su internet tantissime traduzioni già compilate. Di solito ce ne accorgiamo perchè il lavoro cambia proprio del tutto. Se uno studente scrive benissimo il testo e poi, interrogato verbalmente, non riesce a mettere soggetto predicato e complemento in fila si coglie subito”.

Come fare per evitare di essere presi in giro dai propri studenti? “Il fenomeno è parecchio diffuso, ciascuno di noi docenti l’ha già incontrato almeno una manciata di volte. Usiamo le armi che abbiamo: come il ‘sequestro’ del telefono durante le verifiche in classe. Se invece il testo prodotto per compito sembra scritto da qualcun altro, verifichiamo oralmente la comprensione di quel testo. Io per esempio non do mai compiti con valutazione a casa, in modo da evitare queste situazioni. In ogni caso, l’IA è ormai una realtà da affrontare”, ha concluso.

“L’uomo deve guidare il sistema”

In un’intervista a La Repubblica Paolo Benanti, teologo e filosofo francescano professore alla Pontificia università Gregoriana, diventato di recente presidente della Commissione Algoritmi del Dipartimento per l’informazione e l’editoria di Palazzo Chigi, ha chiarito il suo pensiero in merito all’intelligenza artificiale: “A noi interessa che coesistano uomo e macchina, quindi ci vogliono i guard rail ma dobbiamo anche chiederci se è necessario o meno richiedere un tipo di formazione per utilizzarli. Il prodotto creato con IA deve essere sempre riconoscibile, per evitare che l’uomo venga ingannato. Altrimenti sarebbe alto l’impatto sulla vita democratica da parte di chi può influenzare l’opinione pubblica”.

“Ci sono due temi etici paralleli, l’urgenza e l’importanza. Per urgenza la ricerca delle informazioni su internet è il primo tema da affrontare. Per importanza bisogna salvaguardare l’editoria perché i giornalisti consentono al tessuto democratico di mantenersi vivo. Per salvare l’informazione va specificato bene chi fa cosa, deve essere chiaro cosa viene prodotto con l’Ia e cosa dall’uomo. Dobbiamo far sì che l’uomo sia in grado di guidare il sistema. Tanto più è potente lo strumento, tanto più dobbiamo investire su formazione. Siccome la parte che porta valore e fonda la società occidentale è la persona, dobbiamo investire su quella”, queste le sue parole. Evidente, quindi, che bisogna coltivare il pensiero critico.

Il corso

Su questi argomenti il corso Utilizzo di Gemini in Google Workspace, a cura di Ivano Stella, in collaborazione con Casco Learning, in programma dall’11 marzo.

L’ALTRO CORSO SULL’INTELLIGENZA ARTIFICIALE:

Utilizzo del copilot in Windows