Oggi, 2 agosto 2025, nell’Unione Europea entrano in vigore alcune rilevanti obblighi connessi con l’AI Act, la legislazione Europea sull’intelligenza artificiale (questo il sito dell’Unione Europea dedicato all’AI ACT e alla sua implementazione: https://artificialintelligenceact.eu/)
Vediamo in primo luogo quali sono le norme che entrano in vigore il 2 agosto 2025 andando ad analizzare la timeline sul sito che segue l’implementazione della norma (link). Riportiamo qui la tabella che sintetizza il tutto
| Data entrata in vigore | Soggetti implicati e azioni richieste | Riferimento AI Act |
| 2 agosto 2025 | Fornitori I fornitori di modelli GPAI immessi sul mercato/messi in servizio prima di tale data devono conformarsi alla legge sull’IA entro il 2 agosto 2027. | Articolo 111 |
| 2 agosto 2025 (e poi ogni due anni) | Stati membri Termine ultimo per la presentazione da parte degli Stati membri di una relazione alla Commissione sullo stato delle risorse finanziarie e umane delle autorità nazionali competenti. | Articolo 70 |
| 2 agosto 2025 | Stati membri Termine ultimo per la designazione da parte degli Stati membri delle autorità nazionali competenti (autorità di notifica e autorità di vigilanza del mercato), la loro comunicazione alla Commissione e la pubblicazione dei loro recapiti. | Articolo 70 |
| 2 agosto 2025 | Stati membri Termine ultimo per gli Stati membri per stabilire norme in materia di sanzioni e ammende, notificarle alla Commissione e garantirne la corretta attuazione. | Recital 179 |
| 2 agosto 2025 | Commissione la Commissione può stabilire norme comuni per l’attuazione degli obblighi per i fornitori di modelli GPAI tramite atti di esecuzione. | Articolo 56 |
| 2 agosto 2025 (e ogni anno successivo) | Commissione Termine ultimo per la revisione annuale della Commissione e possibili modifiche ai divieti | Articolo 122 |
I modelli GPAI (general-purpose artificial intelligence ) sono modelli di intelligenza artificiale per scopi generali quali, ad esempio, ChatGpt, Gemini, Mistral, Claude, Meta Ai, Grok. Si tratta di sistemi addestrati su vasti insiemi di dati e progettati per svolgere una molteplicità di compiti, spesso come componenti integrati di altri sistemi IA.
L’AI Act definisce sia i parametri in base ai quali un modello di intelligenza artificiale rientra in questo gruppo che obblighi specifici per le aziende che li sviluppano.
Tra gli adempimenti richiesti figurano, come scrive Arenadigitale : “la produzione di documentazione tecnica dettagliata, la condivisione di informazioni con i fornitori che integrano il modello nei loro sistemi, l’adozione di politiche che garantiscano il rispetto del diritto d’autore e la pubblicazione di rapporti sui dati utilizzati per l’addestramento. I GPAI considerati a rischio sistemico devono inoltre soddisfare requisiti aggiuntivi, come la valutazione periodica del modello, la segnalazione di incidenti e misure di cybersicurezza avanzate”. Si tratta, come si può ben vedere, di elementi chiave anche in ordine all’utilizzo dei sistemi di IA in ambito educativo.
Per aiutare le industrie ad aderire alla normativa l’UE ha pubblicato un codice di buone pratiche che affronta tre aree chiave: sicurezza, trasparenza e diritto d’autore dei modelli di IA per finalità generali.
Il codice di buone pratiche sull’IA per finalità generali (GPAI) è uno strumento volontario, preparato da esperti indipendenti in un processo multipartecipativo, concepito per aiutare l’industria a rispettare gli obblighi della legge sull’IA per i fornitori di modelli di IA per finalità generali.
L’adesione al codice è volontaria e non obbligatoria. Malgrado lo scetticismo generale sono stati molti i produttori che vi hanno aderito (qui l’elenco completo fornito dall’UE assieme al testo del codice). Tra questi OpenAI, Microsoft, Google, Mistral. Trai grandi non ha aderito al momento Meta (messa sotto indagine in Italia dall’Autorità Garante della concorrenza per abuso di posizione dominante in riferimento all’inserimento di AI meta in whatssapp) mentre non si hanno notizie dei sistemi cinesi Deep Seek e Tencent.
Sempre entro il 2 agosto gli stati membri dell’Unione sono tenuti a comunicare le proprie autorità di controllo. SI tratta di tre diverse autority:
La tabella pubblicata dalla UE e che permette di vedere quali paesi hanno applicate norme dell’AI Act che hanno creato le tre autority alla voce Italia scrive:
Adesione parziale rispetto alla National Competent Authorities (Art 28 and Art 70):
Una proposta legislativa del maggio 2024 designa l’Agenzia per la Cybersicurezza Nazionale (ACN) come autorità di vigilanza del mercato con poteri di monitoraggio, ispezione e applicazione delle norme in relazione ai sistemi di IA.
Per quanto riguarda Authorities Protecting Fundamental Rights (Art 77): La proposta designa l’Agenzia per l’Italia Digitale (AgID) come autorità di notifica. Nessuna autorità figura nell’elenco consolidato della Commissione.
L’Italia e l’Ungheria sono i soli due paesi UE a non aver ancora definito e deliberato l’autorità nazionale di protezione dei diritti fondamentali.
Sono comunque solo tre (Malta, Lituania e Lussemburgo) gli stati che hanno ad oggi definito tutte e tre le autorità nazionali che da oggi hanno competenza sulle AI.
I ritardo dell’Italia è certificato anche dal fatto che il disegno di legge Disposizioni e deleghe al Governo in materia di intelligenza artificiale sta viaggiando a velocità lenta in Parlamento. Il 30 luglio si è conclusa, ma in sede referente, la discussione delle Commissioni riunite 8 e 10 del Senato.