BreakingNews.
Ascolta le ultime notizie
00:00
00:00

IA a scuola, criticità dell’atto amministrativo automatizzato: chi risponde di un errore algoritmico?

L’integrazione di sistemi di Intelligenza Artificiale (AI) nei procedimenti amministrativi scolastici segna il passaggio definitivo dalla mera digitalizzazione dei dati all’autonomia cognitiva delle macchine. Il presente contributo esamina la legittimità dell’istruttoria automatizzata, analizzando le tensioni tra l’efficienza tecnologica e i pilastri del diritto amministrativo: legalità, trasparenza e motivazione. Attraverso il coordinamento tra il CAD, l’AI Act e la Legge 241/1990, si delineano le nuove prerogative del Dirigente Scolastico e del DSGA. Particolare attenzione è rivolta alla gestione del “black box problem” e alla necessità di una supervisione umana effettiva, per evitare che l’automazione esautori la responsabilità gestionale. L’obiettivo è fornire una bussola giuridica per governare l’algoritmo, garantendo che l’innovazione non pregiudichi i diritti dei destinatari né l’imputabilità giuridica degli atti scolastici.

La transizione dall’informatizzazione all’autonomia cognitiva

La Scuola italiana si trova oggi dinanzi a una trasformazione senza precedenti che vede la progressiva sostituzione, o l’affiancamento, dell’attività istruttoria umana con sistemi algoritmici avanzati. Mentre nei decenni scorsi il dibattito si limitava all’“informatizzazione” degli atti, oggi la vera discontinuità è rappresentata dall’autonomia cognitiva dei nuovi sistemi. Un agente intelligente, a differenza dei software gestionali tradizionali, non applica meccanicamente regole fisse, ma interpreta dati complessi e formula raccomandazioni in modo indipendente. Per il Dirigente Scolastico (DS) e il Direttore SGA, questa evoluzione impone un ripensamento dei flussi di lavoro: l’AI non è più un mero strumento di calcolo, ma un attore che partecipa alla formazione della volontà amministrativa.

Il CAD come “Costituzione Digitale” e le sue lacune

Il Codice dell’Amministrazione Digitale (D. Lgs. 82/2005) costituisce la cornice primaria per l’uso delle tecnologie nella Scuola. Tuttavia, il CAD è stato redatto e adottato in un’epoca in cui l’AI generativa era confinata alla fantascienza. Sebbene non contenga disposizioni esplicite sull’AI nella fase decisoria, il CAD impone obblighi precisi al DS e al DSGA: la gestione del fascicolo informatico (Art. 41) e il riuso dei programmi informatici (Artt. 68 e 69). Questa lacuna normativa obbliga le figure apicali a colmare il vuoto attraverso un’azione interpretativa che coniughi i principi del diritto amministrativo nazionale con quelli europei. Il CAD rimane una “Costituzione Digitale”, ma oggi richiede di essere letto alla luce delle sfide poste dall’istruttoria automatizzata.

L’AI Act e la classificazione dei rischi nel settore istruzione

L’entrata in vigore dell’AI Act (agosto 2024) introduce vincoli stringenti per le istituzioni scolastiche. Molti sistemi di AI impiegati per determinare l’accesso a prestazioni o per valutare gli utenti ricadono nella categoria ad alto rischio. Per le PA e le Scuole, ciò implica l’obbligo di garantire la supervisione umana e la trasparenza (Artt. 13 e 14 AI Act). Il Dirigente Scolastico, in quanto responsabile della Scuola, deve assicurare che i sistemi siano progettati per consentire una comprensione reale delle logiche decisionali da parte degli operatori umani, evitando che la macchina diventi un decisore incontrollabile.

Trasparenza e “Black Box Problem”

Uno dei nodi più critici è l’opacità degli algoritmi di machine learning, il cosiddetto “black box problem”. A differenza degli algoritmi deterministici, i modelli di deep learning producono output non sempre ricostruibili attraverso percorsi chiari. Il Consiglio di Stato, con la storica sentenza n. 2270/2019 (caso MIUR/assegnazione docenti), ha stabilito che l’algoritmo deve essere “conoscibile” dal destinatario. Per il DS, non è sufficiente la pubblicazione del codice sorgente: la logica decisionale deve essere comprensibile e verificabile. Senza tecniche di Explainable AI (XAI), l’uso di agenti intelligenti rischia di collidere con il principio di trasparenza amministrativa.

L’obbligo di motivazione nell’atto amministrativo automatizzato

Ai sensi dell’art. 3 della Legge 241/1990, ogni provvedimento deve essere motivato. Quando la decisione è suggerita da un’AI, la motivazione non può ridursi a un mero rinvio all’output algoritmico. La Scuola deve esplicitare i parametri valutativi, i dati di input e la logica applicata. Affermare in modo semplicistico che “la domanda è stata respinta perché il sistema ha assegnato un punteggio basso” è giuridicamente insufficiente e rende l’atto impugnabile. Il DS e il DSGA devono dunque vigilare affinché il processo decisionale resti ancorato a presupposti di fatto e ragioni giuridiche chiaramente espresse.

Contraddittorio e supervisione umana effettiva

L’automazione non può sopprimere il diritto di partecipazione al procedimento (Artt. 7-10-bis L. 241/90). Il cittadino (sia esso un dipendente o una famiglia) ha il diritto di interloquire con l’amministrazione, non solo con un software. La Corte di Giustizia UE ha chiarito che l’intervento umano non deve essere “di facciata“, ma deve tradursi in una revisione effettiva e significativa dell’output. In questo contesto, il ruolo del DS e del DSGA è fondamentale nella configurazione dei sistemi affinché permettano all’interessato di contestare le risultanze istruttorie automatizzate dinanzi a un funzionario umano.

Imparzialità, bias e data governance

Il principio di imparzialità (Art. 97 Cost.) impone che l’azione amministrativa sia priva di discriminazioni. Tuttavia, l’AI può incorporare bias derivanti da dati storici parziali, amplificando disuguaglianze pregresse. L’AI Act risponde imponendo obblighi di data governance (Art. 10) e valutazioni di impatto sui diritti fondamentali. Per la dirigenza scolastica, diventa indispensabile adottare analisi preventive dei rischi e prevedere meccanismi di audit periodico per monitorare la “deriva discriminatoria” dei sistemi adottati.

Imputabilità e profili di responsabilità per il DS e il DSGA

Chi risponde di un errore algoritmico?

L’orientamento prevalente è che l’imputazione giuridica rimanga sempre in capo all’amministrazione. La Scuola non può esimersi da responsabilità adducendo l’autonomia della macchina; la scelta stessa di utilizzare un determinato sistema è un atto gestionale imputabile al vertice. È essenziale che l’AI sia configurata come un Decision Support System (strumento ausiliario) anziché come un sostituto del giudizio umano, per garantire che la responsabilità rimanga saldamente nelle mani dei titolari dei poteri di firma e gestione.

Conclusioni e proposte operative per la Governance Scolastica

L’istruttoria automatizzata è una frontiera ineludibile che, se governata, può favorire efficienza ed equità. Tuttavia, l’innovazione non può procedere a discapito delle garanzie costituzionali. Per una corretta implementazione, emerge la necessità di:

  • Adottare l’obbligo di Valutazione di Impatto (VIA) per i sistemi ad alto rischio.
  • Istituire un registro pubblico degli algoritmi utilizzati dall’istituto.
  • Garantire una formazione obbligatoria per il personale scolastico sull’uso etico e giuridico dell’IA.
  • Assicurare un coordinamento costante con AGID e il Garante della Privacy.

Solo attraverso un controllo umano effettivo e un aggiornamento interpretativo delle norme vigenti (CAD e L. 241/90), la scuola potrà evitare il rischio di un’automazione selvaggia che esautori il cittadino dalla comprensione delle decisioni che lo riguardano.

Riferimenti normativi e giurisprudenziali di supporto

  • Codice dell’Amministrazione Digitale (D.Lgs. 82/2005).
  • Regolamento UE 2024/1689 (AI Act).
  • Legge 241/1990 sul procedimento amministrativo.
  • Consiglio di Stato, Sez. VI, Sentenza n. 2270/2019.
  • Regolamento UE 2016/679 (GDPR), Art. 22.

Non sei ancora un utente TS+?

Registrati gratuitamente in pochi passi per ricevere notifiche personalizzate e newsletter dedicate