Se c’è una cosa a cui Dirigenti Scolastici e Direttori SGA sono ormai abituati, è l’invasione degli acronimi: PTOF, PON, PNRR, DPIA… Eppure, proprio quando pensavamo di avere la situazione sotto controllo, le Linee guida MIM 2025 sull’Intelligenza Artificiale ci presentano l’ennesima sfida: la FRIA.
Lontana dall’essere un mero appesantimento burocratico da allegare in fretta e furia alla più nota DPIA, la Fundamental Rights Impact Assessment rappresenta il vero e proprio “scudo etico” della Scuola nell’era digitale. Si tratta di un necessario check-up che supera il perimetro della protezione dati per analizzare come l’algoritmo dell’AI impatti concretamente sulla vita di studenti e personale scolastico.
Redigere la FRIA significa, infatti, mappare l’uso dell’AI — definendone durata e destinatari — per individuarne i pericoli latenti verso l’equità didattica e amministrativa. È, in ultima analisi, l’elemento che stabilisce le misure di controllo umano indispensabili per mitigare i rischi, trasformando l’innovazione tecnologica in un processo realmente sicuro, trasparente e inclusivo.
Ma cos’è esattamente, e perché è così cruciale per chi governa e amministra una Scuola oggi?
Fino ad oggi, l’ingresso della tecnologia a Scuola è stato filtrato quasi esclusivamente attraverso le lenti del GDPR: stiamo proteggendo i dati personali? I server sono sicuri? L’Intelligenza Artificiale, però, cambia le regole del gioco. Un sistema di AI non si limita a immagazzinare dati; li interpreta, prende decisioni, suggerisce percorsi e, talvolta, profila. È qui che entra in gioco la FRIA. Questo documento sposta l’attenzione dalla “protezione del dato” alla protezione della persona. Si concentra su impatti molto più profondi e complessi che un algoritmo può avere su dignità, equità, inclusione e non discriminazione.
Se un software basato sull’AI viene impiegato per valutare gli apprendimenti, prevenire la dispersione o automatizzare la gestione dei servizi amministrativi, il rischio di pregiudizi è dietro l’angolo. Potrebbe un algoritmo discriminare involontariamente uno studente per il suo background socio-economico o, sul fronte gestionale, penalizzare un dipendente o una famiglia a causa di un’istruttoria automatizzata poco trasparente? La FRIA serve esattamente a questo: analizzare criticamente ogni processo — dalla didattica personalizzata alla gestione delle graduatorie e dei flussi in segreteria — per disinnescare i rischi di disparità prima che il danno venga fatto, garantendo che l’efficienza amministrativa non avvenga mai a discapito dell’equità.
Per essere a norma (e soprattutto, utile), la FRIA, integrata all’interno della DPIA, deve mappare con precisione l’ecosistema in cui l’AI andrà ad operare. Ecco i pilastri fondamentali che Dirigenti Scolastici e Direttori SGA devono presidiare nella stesura del documento:
L’implementazione della FRIA richiede una forte sinergia in presidenza e in segreteria.
Il Dirigente Scolastico, in qualità di Titolare del Trattamento e garante del successo formativo, ha la responsabilità di assicurare che l’adozione dell’AI sia coerente con i valori pedagogici del PTOF. È suo il compito di vigilare affinché l’algoritmo non diventi un elemento di esclusione sociale.
Il DSGA, dal canto suo, è fondamentale nell’istruttoria tecnico-amministrativa. Si occupa di interfacciarsi con i fornitori, richiedendo loro trasparenza sugli algoritmi, verificando i contratti e garantendo che le misure di mitigazione ipotizzate siano concretamente sostenibili dalle infrastrutture e dal personale della scuola.
In definitiva, compilare una FRIA non significa firmare l’ennesima circolare. Significa fermarsi a riflettere su che tipo di Scuola vogliamo costruire.
L’Intelligenza Artificiale offre opportunità straordinarie per personalizzare la didattica e snellire la burocrazia, ma la Scuola rimane, per definizione, un ecosistema profondamente umano. La FRIA, se usata bene, non frena l’innovazione, ma le dà una direzione, assicurando che la tecnologia resti un utile strumento nelle mani di docenti e dirigenti, e non un misterioso giudice “scatola nera”.
Accogliere l’AI a scuola si può, e si deve. Ma solo se l’algoritmo dimostra di aver studiato la Costituzione.
Propongo un esempio pratico e strutturato di una FRIA (Fundamental Rights Impact Assessment) calata nel contesto scolastico.
Ho immaginato uno scenario molto verosimile: una scuola che decide di adottare un software di Intelligenza Artificiale per l’analisi predittiva, al fine di individuare gli studenti a rischio di dispersione scolastica. È un caso classico in cui la tutela della privacy (DPIA) si incrocia con la tutela dei diritti fondamentali (FRIA).