
“A un tratto tutti hanno una gran paura e cominciano a tirare in ballo la morale”: è questa l’affermazione che Friedrich Dürrenmatt mette in bocca a Isaac Newton nella sua opera teatrale I fisici del 1962. La riporta Alessandro Aresu, nel testo Geopolitica dell’intelligenza artificiale (2024), per descrivere la situazione attuale. Situazione nella quale, di fronte alle sempre nuove e mirabolanti possibilità e potenzialità propagandate dall’intelligenza artificiale, siamo sempre più preda della paura, della consapevolezza dei rischi. E allora, per far fronte alla paura, convochiamo l’etica, la morale. Sperando che non sia troppo tardi. Che non si tratti della civetta di Minerva che, come dice Hegel, si alza al tramonto, ovvero quando ormai tutto è avvenuto.
Intelligenza artificiale a scuola, ma è utile chiedersi se sostituirà i docenti? Come usarla e le norme – FOCUS
Raccomandazioni e norme internazionali
A livello internazionale esiste una vastissima letteratura attorno al tema etica e intelligenza artificiale.
Sul versante educativo il documento da cui partire è la riflessione dell’Unesco che nel 2021 ha pubblicato il testo Recommendation on the Ethics of Artificial Intelligence (https://unesdoc.unesco.org/ark:/48223/pf0000381137) frutto di una lunga consultazione tra paesi ed esperti e successivamente ulteriormente approfondito nel 2023 con il documento UNESCO’s Recommendation on the Ethics of Artificial Intelligence: key facts (https://unesdoc.unesco.org/ark:/48223/pf0000385082).
Al punto 9 la raccomandazione chiarisce che “I valori e i principi dovrebbero essere rispettati da tutti gli attori coinvolti nel ciclo di vita dei sistemi di IA, in primo luogo e, ove necessario e opportuno, promossi attraverso modifiche alla legislazione, ai regolamenti e alle linee guida aziendali esistenti e l’elaborazione di nuovi”.
I valori definiti dalla raccomandazione sono:
- rispetto, protezione e promozione dei diritti umani, delle libertà fondamentali e della dignità umana
- ambiente e prosperità dell’ecosistema
- garantire la diversità e l’inclusività
- vivere in società pacifiche, giuste e interconnesse.
I principi etici di riferimento sono invece così identificati:
- Proporzionalità e principio del “non nuocere”
- Sicurezza e protezione
- Equità e non discriminazione
- Sostenibilità
- Diritto alla privacy e protezione dei dati
- Controllo e determinazione umani
- Trasparenza e spiegabilità
- Responsabilità e affidabilità
- Consapevolezza e alfabetizzazione
- Governance e collaborazione multistakeholder e adattiva
Moltissime sono le successive riflessioni e determinazioni, anche legislative, al riguardo della necessità di definire i principi ed i valori cui l’intelligenza artificiale deve richiamarsi e che deve rispettare. Tra questi ad esempio i principi cui fa riferimento l’AI Act dell’Unione Europea (intervento e sorveglianza umani, robustezza tecnica e sicurezza, vita privata e governance dei dati, trasparenza, diversità, non discriminazione ed equità, benessere sociale e ambientale e responsabilità, finalizzati a all’elaborazione di un’IA coerente, affidabile e antropocentrica, in linea con la Carta e con i valori su cui si fonda l’Unione, cfr il Considerando 27 del regolamento)
Molto importanti anche, a livello internazionale, le riflessioni proposte da due dicasteri vaticani (per la cultura e l’educazione e per la dottrina della fede) nel documento pubblicato a gennaio 2025 e intitolato Antiqua et Nova – Nota sul rapporto tra intelligenza artificiale e intelligenza umana.
Ma, questa la domanda che con radicalità va messa in evidenza, basta davvero definire i principi ed i valori etici che l’IA deve rispettare ed a cui deve richiamarsi perché questo accada?
Che cosa significa davvero che l’IA deve essere antropocentrica?
La governance dell’IA
Ecco allora il passaggio successivo. Luciano Floridi, nel volume del 2020 Etica dell’intelligenza artificiale, (Cortina Editore) così definisce la governance: la pratica di stabilire e attuare politiche, procedure e standard per i corretti sviluppi, utilizzo e gestione dell’infosfera.
E questa pratica non può essere realizzata a valle dell’IA ma deve essere presente nel momento stesso in cui l’IA viene implementata. Altrimenti l’etica si riduce ad essere la civetta di Minerva cui abbiamo accennato sopra.
Ecco allora che nascono normative, più o meno coerenti e capaci di regolare il sistema IA, sia a livello internazionale che nazionale.
Abbiamo già citato l’IA Act, il regolamento europeo del 2024.
Possiamo aggiungere qui anche l’importante studio dell’ONU intitolato Governing AI for humanity pubblicato nel 2024 e che coniuga tutti i principi, i valori e le normative del diritto internazionale (ad esempio la dichiarazione universale dei diritti umani) con il tema dell’IA e con la necessità della sua regolamentazione e governance.
A livello italiano tutto ciò si è tradotto a livello legislativo con la approvazione a settembre 2025 della Legge 23 settembre 2025, n. 132 – Disposizioni e deleghe al Governo in materia di intelligenza artificiale – e, per stare nel mondo della scuola, con la pubblicazione delle linee guida sull’inserimento dell’IA nelle istituzioni scolastiche. Le linee guida riassumono nella figura 3 i requisiti etici dell’IA che entra a scuola.

Le linee guida MIM: come passare dalla protezione alla progettazione?
Il dibattito sulle linee guida del MIM, e sulla loro concreta applicabilità, è oggi intenso e molto significativo.
In un recente colloquio Susanna Sancassani, responsabile del Metid del Politecnico di Milano, ha sostenuto che “le linee guida MIM riflettono il momento che stiamo vivendo: una fase in cui la riflessione sui rischi è molto più strutturata e articolata rispetto alla riflessione sulle opportunità. È naturale: prima proteggersi, poi sperimentare”.
Gli studenti, infatti, non aspettano i tempi della scuola, come ha anche di recente messo in evidenza il rapporto Generazione AI di Tortuga Policy Reports. Loro l’AI la usano già: per fare riassunti, tradurre testi, risolvere esercizi. La sfida è allora guidarli a vedere l’AI non come una scorciatoia, ma come un compagno di crescita. Può diventare un supporto personalizzato per comprendere un testo complesso, un alleato per consolidare concetti grazie a feedback mirati, uno stimolo per esercitare pensiero critico e creatività invece che evitarli.
Ancora Susanna Sancassani: “Credo che qui si giochi la partita più importante: passare dalla protezione alla progettazione, senza contrapporle, ma facendo in modo che la prima apra la strada alla seconda. Perché proteggere senza progettare rischia di diventare paralisi, mentre progettare senza proteggere rischia di diventare imprudenza. Solo tenendo insieme entrambe le dimensioni possiamo costruire un futuro educativo che non subisce l’AI, ma lo orienta”.
Anche nella scuola, insomma, è sempre più urgente definire e realizzare processi di governance che rendano efficaci i principi in cui tutti ci riconosciamo ma che rischiano di restare vaghi e lontani. Bellissimi ma irraggiungibili.



