Ieri (mercoledì 23 luglio) l’amministrazione Trump ha presentato il “Piano d’azione per l’intelligenza artificiale”. Si tratta di un piano che si muove su due linee chiave:
- Rimuovere l’ordine esecutivo di Biden (firmato il 30 ottobre 2023) e titolato “Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence” che accanto alle straordinarie opportunità derivanti dall’AI identificava anche i rischi connessi all’uso irresponsabile della stessa. Il 23 gennaio 2025, appena insediato, Trump aveva già avviato il dietro front firmando un ordine esecutivo dal titolo chiarissimo: “Removing barriers to american leadership in artificial intelligence”. (ne abbiamo parlato qui). Si tratta, secondo Trump, di dare priorità alla deregolamentazione eliminando “burocrazie” e “pregiudizi ideologici” (così nella ricostruzione della Bbc). Interessante notare la torsione totale rispetto al tema dei bias – pregiudizi: essi non sono un rischio insito nella IA quanto piuttosto nel tentativo di regolamentare l’IA. Il tema ritorna poi in campo nella parte in cui il piano di Trump – come dice il New York Times – prevede che il governo conceda contratti federali alle aziende che “garantiscono che i loro sistemi siano oggettivi”. Come si definisca la oggettività, è, ovviamente, tutto da chiarire!
- Rimuovere le regolamentazioni ha, per Trump, lo scopo di rendere più libera la competizione con la Cina per lo sviluppo dell’intelligenza artificiale. Il Piano Trump disegna oltre 90 misure per finalizzate ad “eliminare la burocrazia e le regolamentazioni onerose”.
Come si può vedere si tratta di un punto di vista (e di azioni conseguenti) all’opposto rispetto alle politiche europee che prevedono una significativa regolamentazione mediante l’AI ACT che sta entrando in vigore proprio in questi mesi e che tocca anche le scuole.
La lezione di Luciano Floridi: più conoscenza, democrazia e politica
Domenica 20 luglio è stato pubblicato in Italia (da La lettura) un lungo ed importante saggio di Luciano Floridi che dopo aver descritto i rischi connessi al digitale e all’IA scrive che “non possiamo permetterci né l’ottimismo ingenuo che crede che la tecnologia si autoregolamenterà — i mercati fanno bene una cosa sola su tre: la creazione della ricchezza, ma non la distribuiscono, l’accentrano, e non proteggono ma esacerbano i danni generati dalla sua creazione — né il pessimismo che porta alla rassegnazione o alla iper-regolamentazione”.
E per affrontare questi rischi il filosofo presenta tre strategie fondamentali (di cui dice: nessuna è originale, tutte richiedono la volontà politica). Eccole in sintesi:
- Investire nella formazione diffusa e consapevole. Ogni generazione nasce ignorante ma ha l’obbligo morale di morire educata, usando quello che ha imparato e capito per vivere una vita migliore e creare migliori condizioni di vita per chi le succede.
- Garantire un controllo democratico, responsabilizzato e trasparente dei processi digitali che incidono direttamente sulle vite dei cittadini.
- Sviluppare una progettualità politica lungimirante e consapevole della società digitale. Questo implica investimenti strategici in ricerca e innovazione orientate esplicitamente al bene comune, non solo al profitto.
In sintesi, dice Floridi, solo con più e migliore conoscenza, democrazia, e politica potremo governare la transizione digitale anziché subirla. È questo il compito della nostra generazione.
Le conclusioni di Floridi (che sono poi in parte le stesse cui giungono Paolo Benanti e Sebastiano Maffettone nel loro ultimo saggio) mettono al centro, come si vede chiaramente, il ruolo della formazione. Diffusa e consapevole. Ovvero rivolta non solo alle giovani generazioni ma a tutti i cittadini.
Si aprono (o dovrebbero aprirsi) nuove e importantissime prospettive anche per le scuole. A saperle leggere e intendere con civic center di formazione alla cittadinanza digitale. E qui occorre la volontà politica.