
Il 22 gennaio 2025 il Dipartimento dell’Istruzione del Regno Unito ha pubblicato un importante documento (Guidance) intitolato Generative AI: product safety expectations.
D cosa si tratta? Di una guida, rivolta a chi produce e commercia sistemi, app, piattaforme e servizi di intelligenza artificiale, in cui viene indicato, con semplicità e chiarezza, che cosa, in ambito educativo, ci sia aspetta in ordine alla sicurezza dei prodotti AI.
Il Documento, con un linguaggio comprensibilissimo e lontano mille miglia dal burocratichese tipico ad esempio dei ministeri italiani, elenca le caratteristiche che i prodotti e i sistemi di intelligenza artificiale generativa dovrebbero soddisfare per essere considerati sicuri per gli utenti in contesti educativi.
Il documento è da un lato rivolto agli sviluppatori edtech e ai fornitori di scuole e college e dall’altro fornisce alle scuole stesse una utilissima checklist di problemi di cui tener conto quando si affronta il tema degli acquisti e dell’uso di prodotti AI.
Il Governo del Regno Unito è consapevole che alcune richieste dovranno essere soddisfatte più a monte della filiera, ma è anche molto preciso nel ricordare che la responsabilità di garantire il rispetto di quanto richiesto spetta ai sistemi e agli strumenti che collaborano direttamente con scuole e college.
Da ultimo va segnalato che il documento si concentra sui risultati, ma non prescrive approcci specifici per raggiungerli. In sostanza ricorda le leggi e i regolamenti cui riferirsi ma non entra, e non è suo compito del resto, nell’indicazione dei percorsi tecnici da seguire.
Il documento è reperibile on line al link https://www.gov.uk/government/publications/generative-ai-product-safety-expectations/generative-ai-product-safety-expectations#monitoring-and-reporting e qui lo presento in una tabella che riassume i problemi principali e le azioni richieste ai produttori di IA fornendo una panoramica chiara delle aspettative in termini di sicurezza e conformità per l’AI nel contesto educativo
Ambito | Questione rilevante | Cosa devono garantire i prodotti AI (e quindi azioni richieste ai produttori di AI al fine di implementare i prodotti e servizi venduti alle scuole) |
Filtraggio | Accesso a contenuti dannosi e inappropriati. | * Prevenire efficacemente l’accesso o la generazione di contenuti inappropriati. * Mantenere gli standard di filtraggio durante tutta la conversazione. * Adattare il filtraggio in base a rischio, età e necessità dell’utente, inclusi utenti con disabilità. * Moderare contenuti multimodali in diverse lingue, immagini, errori di ortografia e abbreviazioni * Mantenere le capacità di moderazione su tutti i dispositivi. * Moderare il contenuto in base al contesto. * Aggiornare il filtraggio in risposta a nuovi contenuti dannosi. |
Monitoraggio e Reporting | Il prodotto di IA generativa deve mantenere solide procedure di registrazione delle attività. . Ciò include la registrazione delle richieste di input e delle rispostel’analisi delle metriche delle prestazioni | * Mantenere registri robusti delle attività, inclusi input e risposte. * Analizzare le metriche delle prestazioni. * Segnalare ai supervisori l’accesso o il tentativo di accesso a contenuti dannosi. * Avvisare l’utente e indirizzarlo a risorse di supporto quando il contenuto proibito viene bloccato. * Generare notifiche in tempo reale in linguaggio appropriato all’età quando il contenuto viene bloccato. * Segnalare ai supervisori le potenziali divulgazioni di salvaguardia fatte dagli utenti. * Generare report comprensibili sull’accesso a contenuti proibiti. |
Sicurezza | Uso improprio e vulnerabilità a manipolazioni e attacchi Ciò include la priorità degli obiettivi tecnici di: affidabilitàsicurezzarobustezzagarantire un funzionamento sicuro anche in presenza di cambiamenti imprevisti e attacchi avversari. | * Offrire una protezione robusta contro il “jailbreaking”. * Prevenire modifiche non autorizzate al prodotto. * Permettere agli amministratori di impostare diversi livelli di autorizzazione. * Implementare regolarmente correzioni di bug e aggiornamenti. * Testare accuratamente le nuove versioni per garantire la conformità alla sicurezza. * Avere una protezione robusta tramite password o metodi di autenticazione. * Essere compatibile con gli standard di sicurezza informatica. |
Privacy e Protezione Dati | Va garantito un approccio solido alla gestione dei dati e alla trasparenza sul trattamento dei dati personali. Occorre: il rispettare tutte le leggi e i regolamenti in materia di protezione dei datigarantire una base legittima per la raccolta dei dati | * Fornire un’informativa sulla privacy chiara e completa, presentata regolarmente in formati e linguaggi appropriati all’età. * Spiegare come i dati vengono raccolti, elaborati, archiviati e condivisi. * Indicare dove i dati vengono elaborati e le misure di sicurezza se fuori dal Regno Unito o dall’UE. * Indicare il quadro legislativo pertinente. * Condurre Valutazioni d’Impatto sulla Protezione dei Dati. * Permettere alle parti di adempiere alle proprie responsabilità di titolare e responsabile del trattamento dei dati. * Rispettare la legislazione sulla protezione dei dati e i codici ICO. * Non raccogliere, archiviare o condividere dati personali per fini commerciali senza basi legali. |
Proprietà Intellettuale | Utilizzo non autorizzato della proprietà intellettuale creata da utenti (studenti, docenti…) | * Non archiviare o raccogliere la proprietà intellettuale creata dagli utenti per fini commerciali senza consenso. * Non raccogliere, memorizzare o condividere input e output per fini commerciali, come l’addestramento del modello. * Ottenere il permesso dal proprietario del copyright o, nel caso di minori, dal genitore o tutore. |
Design e Test | Il prodotto di intelligenza artificiale generativa deve dare priorità, sin dalla sua progettazione, alla trasparenza e alla sicurezza dei bambini. | * Dare priorità alla trasparenza e alla sicurezza dei bambini nel design. * Implementare mitigazioni tecniche per i rischi identificati. * Garantire un design e un funzionamento centrati sul bambino. * Condurre test con le parti interessate, compresi i bambini. * Eseguire test sufficienti con una gamma diversificata e realistica di potenziali utenti e casi d’uso. * Eseguire test sufficienti delle nuove versioni per garantire la conformità alla sicurezza prima del rilascio. * Assicurarsi che il prodotto funzioni costantemente come previsto. |
Governance | Il prodotto di IA generativa deve essere gestito con responsabilità e devono essere istituiti meccanismi formali per la presentazione di reclami. Inoltre occorre dimostrare che le operazioni, i processi decisionali e le pratiche di gestione dei dati sono comprensibili e accessibili alle agenzie governative e agli utenti. | * Condurre una valutazione del rischio per garantire la sicurezza per l’uso educativo. * Avere un meccanismo formale di reclamo per segnalare e risolvere i problemi di sicurezza. * Rendere disponibili le politiche e i processi che disciplinano le decisioni sulla sicurezza dell’IA. |
E in Italia?
In Europa, e quindi anche in Italia, sta entrando in vigore l’Ai Act di cui abbiamo più volte parlato.
Un testo normativo della cui importanza cui il mondo della scuola, in Italia, pare avere ancora scarsa percezione.
Per agevolare la transizione verso il nuovo quadro normativo, la Commissione Europea ha varato il patto per l’IA, un’iniziativa volontaria che mira a sostenere la futura attuazione, a dialogare con i portatori di interessi e a invitare i fornitori e gli operatori di IA provenienti dall’Europa e da altri paesi a rispettare in anticipo gli obblighi fondamentali della legge sull’IA. Si tratta di un percorso che dovrebbe portare – nel mondo della scuola – a esiti come quelli indicati dal Governo Inglese.
La regolamentazione, infatti, necessita, per essere funzionale alla crescita europea in ambito AI, di un serrato confronto con le aziende produttrici cui non può certo essere delegato il compito di autoregolarsi in ambiti così sensibili come quelli dell’AI in educazione.
Sta qui la grande differenza tra l’approccio europeo e quello statunitense. Differenza che comporterà con tutta probabilità anche scontri economici e politici.
In Italia, intanto, sarebbe utile che almeno il tema entrasse nel dibattito pubblico nelle priorità degli operatori scolastici.
Il modello inglese (oltre ai suggerimenti forniti dalla commissione europea nel 2022 con il documento Orientamenti etici per gli educatori sull’uso dell’intelligenza artificiale (IA) e dei dati nell’insegnamento e nell’apprendimento ) può costituire un buon punto di partenza.
Il questionario della Tecnica della Scuola e Indire
E’ proprio per questo motivo che Tecnica della Scuola e il gruppo di ricerca Paths di Indire hanno realizzato il questionario rivolto ai docenti di ogni ordine e grado delle nostre scuole, per affrontare il tema dell’AI applicato alla didattica.
Una ricerca unica in Italia, il primo questionario per gli insegnanti che si stanno cimentando con quello che da molti è visto come lo strumento che caratterizzerà il presente e il futuro della nostra vita, in ogni settore, compresa la scuola.
Tante le ricerche internazionali susseguitesi negli ultimi tempi che hanno cercato di capire se l’intelligenza artificiale può essere utilizzata nella pratica didattica del docente per migliorare l’apprendimento degli studenti.
PARTECIPA AL QUESTIONARIO
Grazie all’indagine lanciata da Indire e La Tecnica della Scuola, il docente risponderà a una serie di domande semplici ma pratiche chiarendo qual è il rapporto attuale che vive con l’IA. L’utilizzo di questo strumento, a disposizione di tutti i docenti, può riflettersi sull’apprendimento degli alunni che, in alcuni casi, sembrano essere più avanti dei loro insegnanti nella conoscenza del mezzo.
La ricerca proverà a svelare, con l’aiuto dei partecipanti, quale uso il docente fa dello strumento, se può servire nella pianificazione delle attività didattiche, nell’organizzazione delle attività extra docenza, quanto e in cosa può essere utile per lo studente, i motivi che possono ostacolare (se ci sono) l’utilizzo dell’IA in classe.
I risultati dell’indagine, che si chiuderà il 16 febbraio 2025, saranno pubblicati sul portale della Tecnica della Scuola e sul sito di Indire.