Prima Ora | Notizie scuola del 8 maggio 2026

BreakingNews.
Ascolta le ultime notizie
00:00
00:00
08.05.2026

Nudifier vietati, scadenze rinviate: cosa cambia davvero per la scuola con il Digital Omnibus

L’Unione Europea ha scelto la via del pragmatismo. Nella notte tra il 6 e il 7 maggio 2026, Parlamento e Consiglio hanno raggiunto un accordo provvisorio sul Digital Omnibus, il pacchetto di semplificazione che aggiorna l’architettura dell’AI Act. Non si tratta di un passo indietro, ma di una necessaria ricalibrazione: Bruxelles sposta in avanti le scadenze operative per concedere ossigeno alle imprese, introducendo però nuovi divieti stringenti contro i crimini digitali a sfondo sessuale.

Il nuovo calendario: più tempo per la conformità

La modifica più impattante riguarda i sistemi di intelligenza artificiale ad alto rischio. L’obbligo di conformità per questi sistemi — che includono quelli utilizzati in settori critici come la biometria, le infrastrutture e, soprattutto, l’istruzione — è stato posticipato al 2 dicembre 2027. Per i componenti di sicurezza integrati in prodotti già regolamentati, la data slitta addirittura al 2 agosto 2028.

Anche l’obbligo di watermarking (la marcatura dei contenuti generati da AI per renderli riconoscibili) viene rinviato al 2 dicembre 2026. Questo rinvio è figlio di una carenza tecnica: mancano ancora standard europei condivisi e linee guida chiare che permettano alle organizzazioni di adeguarsi senza incertezze legali.

Il bando dei “Nudifier”: una barriera contro l’abuso

Parallelamente alla flessibilità sui tempi, l’UE ha alzato la guardia sui diritti umani. L’accordo introduce un divieto esplicito per i cosiddetti nudifier e per i sistemi che generano materiale pedopornografico (CSAM) o immagini intime non consensuali (deepfake pornografici). Le aziende avranno tempo fino al 2 dicembre 2026 per implementare misure di sicurezza atte a impedire che i propri modelli vengano usati per violare la dignità personale.

I nudifier (termine che deriva dall’unione di nude e modifier) sono strumenti basati sull’intelligenza artificiale progettati per rimuovere digitalmente i vestiti dalle immagini di persone reali, creando dei deepfake pornografici. Tecnicamente, non “vedono” cosa c’è sotto i vestiti (non sono raggi X), ma utilizzano algoritmi generativi per ricostruire il corpo nudo in modo estremamente realistico, basandosi sui dati con cui l’IA è stata addestrata.

Il problema non è solo tecnologico, ma profondamente etico e sociale:

  • Violazione del consenso: vengono utilizzati quasi esclusivamente per creare materiale intimo senza che la persona ritratta lo sappia o sia d’accordo.
  • Arma di cyberbullismo: sono strumenti perfetti per il cosiddetto revenge porn o per il ricatto (estorsione sessuale), colpendo duramente la reputazione e la salute mentale delle vittime.
  • Facilità d’uso: Fino a poco tempo fa, creare un fotomontaggio simile richiedeva abilità da grafici professionisti. Oggi, grazie a questi sistemi, chiunque può farlo in pochi secondi con un’app o un bot di messaggistica.

L’accordo del 7 maggio 2026 ha stabilito una linea di tolleranza zero. Il divieto non colpisce solo chi usa queste foto per ricattare, ma va alla radice del problema:

  1. Bando del software: è vietato immettere sul mercato dell’UE software creati specificamente per questa funzione.
  2. Responsabilità dei produttori: se un’azienda crea un’IA generativa generica (come quelle che creano immagini artistiche), ha l’obbligo di inserire filtri di sicurezza “ragionevoli” per impedire che gli utenti la usino come nudifier.
  3. Dignità umana: la legge ora classifica questi sistemi come una minaccia diretta alla dignità personale, equiparandoli in certi casi alla creazione di materiale pedopornografico se coinvolgono minori (anche se sintetici).

In ambito educativo, spiegare cosa sono i nudifier dovrebbe essere parte dei percorsi di cittadinanza digitale: i ragazzi devono capire che produrre o far circolare queste immagini non è una “bravata”, ma un reato grave che la tecnologia ora è in grado di tracciare molto più facilmente.

Le ricadute sul mondo dell’educazione e della didattica

Il rinvio delle scadenze e le nuove tutele hanno un impatto diretto e profondo sul sistema formativo, sia dal punto di vista gestionale che pedagogico.

1. Gestione dei sistemi ad alto rischio nelle scuole Poiché l’istruzione è classificata come settore “ad alto rischio”, il rinvio al 2027 offre alle istituzioni educative e alle università una finestra cruciale per testare software di valutazione e orientamento basati su AI senza l’immediata pressione delle sanzioni. Tuttavia, questo “tempo supplementare” non deve tradursi in inerzia: i Garanti della Privacy (EDPB e EDPS) avvertono che la semplificazione non deve ridurre l’AI Literacy (l’alfabetizzazione all’AI) del personale scolastico, che resta il primo baluardo contro bias e discriminazioni algoritmiche.

2. Sicurezza degli studenti e Deepfake Il bando dei nudifier e l’obbligo di watermarking sono vittorie fondamentali per la tutela dei minori. Nella didattica quotidiana, questo significa disporre di strumenti legali più forti per contrastare il cyberbullismo a sfondo sessuale e la manipolazione delle immagini tra pari. Il rinvio del watermarking al 2026 suggerisce però che, per i prossimi mesi, la scuola dovrà puntare tutto sulla prevenzione critica: insegnare agli studenti a dubitare della veridicità di ciò che vedono, in attesa che la tecnologia di tracciamento diventi obbligatoria.

3. Personalizzazione e inclusione L’apertura dell’accordo al trattamento dei dati personali per correggere i bias (distorsioni) nei sistemi AI è una notizia positiva per la didattica inclusiva. Consentirà di sviluppare tutor intelligenti e strumenti di apprendimento adattivo più equi, capaci di riconoscere e correggere pregiudizi di genere, etnia o disabilità che potrebbero penalizzare gli studenti durante i percorsi formativi. L’Articolo 10, paragrafo 5 del testo originale dell’AI Act (Regolamento UE 2024/1689) è stato confermato e reso operativo dal pacchetto di semplificazione (Digital Omnibus) del 2025/2026 per chiarire il rapporto tra l’intelligenza artificiale e il GDPR. Si ricorda che l’art. 10 paragrafo 5 così recita: “Nella misura in cui sia strettamente necessario al fine di assicurare il rilevamento e la correzione dei bias (pregiudizi) in relazione ai sistemi di IA ad alto rischio, i fornitori di tali sistemi possono trattare categorie particolari di dati personali [ai sensi del GDPR, come origine etnica, dati sulla salute, ecc.], fatte salve adeguate garanzie per i diritti e le libertà fondamentali delle persone fisiche.

Nell’ambito educativo (classificato come “High Risk” nell’Allegato III del Regolamento), questa deroga è fondamentale. Senza di essa, gli sviluppatori di software didattici non potrebbero analizzare se il loro algoritmo sta penalizzando, ad esempio, studenti con disabilità o di determinate etnie, perché il GDPR normalmente vieterebbe il trattamento di quei dati sensibili.

L’accordo raggiunto tra il 6 e il 7 maggio 2026 ha esteso l’interpretazione di questo articolo per:

  • Includere non solo i sistemi “ad alto rischio” ma anche quelli che supportano la personalizzazione dell’apprendimento (tutor adattivi), a patto che il fine sia l’equità (de-biasing).
  • Garantire che l’AI Office fornisca linee guida specifiche per i “Sandbox regolamentari”, dove le scuole e le aziende possono testare questi algoritmi inclusivi in un ambiente protetto.
  •  

In sintesi, il Digital Omnibus trasforma l’AI Act da una “scure” normativa a un percorso di accompagnamento. Per la scuola, la sfida non è più solo burocratica, ma culturale: utilizzare questi due anni di moratoria per integrare l’AI in modo etico, garantendo che l’innovazione non avvenga a discapito della sicurezza e della dignità degli studenti.

Non sei ancora un utente TS+?

Registrati gratuitamente in pochi passi per ricevere notifiche personalizzate e newsletter dedicate