E’ stato recentemente pubblicato l’Artificial Intelligence Index Report 2026 dell’Università di Standford (Human-Centered Artificial Intelligence) che costituisce una delle fonti più importanti sull’evoluzione dell’IA nel mondo e nei vari settori della ricerca, dell’economia, dell’istruzione.
Il rapporto è integralmente disponibile on line (qui il link) e viene ampiamente presentato e riassunto sul sito del centro di ricerca (link)
Per il lettori Tecnica della scuola abbiamo analizzato in particolare il capitolo 7 dedicato all’istruzione ma prima di entrare in questo ambito è utile evidenziare alcuni elementi di fondo che attraversano l’analisi svolta da Standford.
L’index spiega che l’adozione dell’IA si sta diffondendo a una velocità senza precedenti e i consumatori stanno traendo un valore considerevole da strumenti a cui spesso accedono gratuitamente. A livello mondiale l’intelligenza artificiale generativa ha raggiunto un tasso di adozione del 53% nella popolazione entro tre anni, più velocemente del PC o di Internet, sebbene il ritmo vari da paese a paese e sia fortemente correlato al PIL pro capite. Alcuni paesi mostrano un’adozione superiore alle aspettative, come Singapore (61%) e gli Emirati Arabi Uniti (54%), mentre gli Stati Uniti si classificano al 24° posto con il 28,3%. Il valore stimato degli strumenti di intelligenza artificiale generativa per i consumatori statunitensi ha raggiunto i 172 miliardi di dollari all’anno all’inizio del 2026, con un valore mediano per utente triplicato tra il 2025 e il 2026.
L’Index sostiene che gli esperti di IA e il pubblico hanno prospettive molto diverse sul futuro di questa tecnologia, e la fiducia globale nelle istituzioni preposte alla gestione dell’IA è frammentata.
Per quanto riguarda le modalità di lavoro delle persone, il 73% degli esperti prevede un impatto positivo, rispetto a solo il 23% del pubblico, con una differenza di 50 punti percentuali. Differenze simili emergono per l’impatto dell’IA sull’economia e sulla sanità. A livello globale, la fiducia nei governi per quanto riguarda la regolamentazione dell’IA varia. Tra i paesi intervistati, gli Stati Uniti hanno registrato il livello di fiducia più basso nel proprio governo per quanto riguarda la regolamentazione dell’IA, pari al 31%. A livello globale, l’UE gode di maggiore fiducia rispetto agli Stati Uniti e alla Cina per quanto riguarda l’efficacia della regolamentazione dell’IA.
Uno dei temi cruciali riguarda poi la dimensione etica e di governance. L’Index sostiene che l’IA responsabile non tiene il passo con le capacità dell’IA, con parametri di riferimento per la sicurezza in ritardo e un forte aumento degli incidenti.
Quasi tutti i principali sviluppatori di modelli di IA all’avanguardia pubblicano risultati sui benchmark di capacità, ma la rendicontazione sui benchmark di IA responsabile rimane frammentaria. Gli incidenti di IA documentati sono aumentati a 362, rispetto ai 233 del 2024. A complicare ulteriormente la situazione, una recente ricerca ha rilevato che il miglioramento di una dimensione dell’IA responsabile, come la sicurezza, può peggiorare un’altra, come l’accuratezza.
Un primo dato su cui riflettere consiste nel fatto che le persone stanno acquisendo competenze in materia di intelligenza artificiale al di fuori dell’istruzione formale e le stanno inserendo nei propri curriculum vitae. Inoltre nella maggior parte dei paesi, l’alfabetizzazione in materia di intelligenza artificiale è cresciuta più rapidamente delle competenze ingegneristiche in questo campo.
Oltre il 90% dei paesi offre ormai corsi di informatica agli studenti delle scuole primarie e secondarie, ma l’insegnamento dell’intelligenza artificiale si è diffuso più lentamente.
Sia la Cina che gli Emirati Arabi Uniti hanno reso obbligatoria l’istruzione sull’intelligenza artificiale a partire dall’anno scolastico 2025-2026, segnalando un cambiamento verso un’istruzione formale sull’IA a livello nazionale.
IL rapporto non dedica uno specifico paragrafo all’Italia ma scorrendo le moltissime tabelle e i grafici è possibile dedurre i seguenti elementi che riguardano il nostro paese.
l rapporto evidenzia un generale forte divario tra la rapida adozione degli strumenti di intelligenza artificiale da parte degli studenti e la lentezza delle istituzioni scolastiche a livello mondiale nel fornire regole chiare e un’adeguata formazione ai docenti. Questo scollamento si articola in tre aree principali.
L’adozione dell’IA tra gli studenti è massiccia, con quattro studenti su cinque (tra scuole superiori e università statunitensi) che usano regolarmente l’IA per le attività scolastiche. A livello globale, l’80% degli studenti universitari interpellati in un sondaggio dichiara di aver usato l’IA generativa per supportare il proprio apprendimento. L’utilizzo si concentra su compiti cognitivi importanti come fare ricerche, comprendere concetti complessi, generare idee o prime bozze e revisionare testi.
Ritardo e confusione nelle policy scolastiche. A fronte di questo utilizzo diffuso, le politiche delle scuole non sono riuscite a tenere il passo. Solo circa la metà delle scuole medie e superiori dispone di linee guida sull’utilizzo dell’IA. Anche in ambito universitario le regole faticano ad affermarsi in modo universale, con solo il 48% degli istituti che possiede policy sull’uso accettabile dell’IA generativa. A livello di governance statale (in particolare nel K-12 statunitense), le linee guida sono perlopiù decentralizzate e non vincolanti, scaricando l’onere di implementare policy e valutare gli applicativi interamente sulle singole agenzie educative locali. Ciò genera forte incertezza negli istituti, tanto che solo il 36% degli studenti giudica le regole della propria scuola “estremamente chiare” e quasi la metà (47%) vorrebbe usare l’IA per i compiti ma non è sicuro che sia consentito.
In questo panorama frammentato, il corpo docente si trova in una posizione di svantaggio e senza una guida solida. Solo uno sbalorditivo 6% degli insegnanti ritiene che le direttive della propria scuola siano chiare e complete. Inoltre, l’accesso a percorsi di sviluppo professionale e alla formazione per i docenti rimane estremamente limitato. Sebbene i documenti governativi riconoscano l’importanza vitale di preparare gli insegnanti sull’IA, mancano standard o finanziamenti strutturali a livello statale per questi programmi di formazione. Di conseguenza, la qualità dell’integrazione dell’IA e l’aggiornamento degli insegnanti dipendono esclusivamente dalla disponibilità di risorse economiche e organizzative locali, lasciando spesso i professori da soli nel gestire una tecnologia che gli studenti usano già quotidianamente.