BreakingNews.
Ascolta le ultime notizie
00:00
00:00

Minori e l’età di accesso ai social media: il punto di vista della Commissione e del Parlamento Europeo

Il dibattito sull’età d’accesso dei minori ai social si fa sempre più intenso. Così, dopo l’Australia che per legge ha fissato a 16 anni l’età minima per poter accedere ai social (Tecnica della scuola ne ha parlato qui), anche altri paesi ne stanno ragionando.

In Europa, secondo studi recenti, il 97 % dei giovani usa Internet ogni giorno e il 78% dei minori tra i 13 e i 17 anni controlla i propri dispositivi almeno una volta all’ora. Allo stesso tempo, un minore su quattro fa un uso “problematico” o “disfunzionale” dello smartphone, ossia presenta dinamiche comportamentali affini alla dipendenza.

Secondo l’Eurobarometro 2025, più del 90 % degli europei ritiene urgente intervenire per proteggere i minori online, in particolare per quanto riguarda l’impatto negativo dei social media sulla loro salute mentale (93 %), il bullismo online (92 %) e la necessità di strumenti efficaci per limitare i contenuti inadatti alla loro età (92 %).

Le linee guida dell’Unione Europea

La Commissione europea ha recentemente reso note le Linee guida per la protezione dei minori nell’ ambito del Digital Services Act (Comunicazione della Commissione europea – Orientamenti su misure per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori online (ai sensi dell’art. 28, par. 4, Regolamento UE 2022/2065 – Digital Services Act)

Il documento riconosce che le piattaforme online offrono numerosi vantaggi ai minori, tra cui l’accesso a risorse educative che aiutano ad acquisire competenze e ampliare conoscenze, consentono di esprimere le proprie opinioni, connettersi con persone con interessi simili e sviluppare abilità sociali, autostima e un senso di comunità.

Tuttavia se l’esplorazione dell’ambiente digitale stimola la curiosità naturale, incoraggiando la creatività, il problem solving, il pensiero critico e l’intrattenimento, molti tra studiosi, autorità, educatori ed esponenti della società civile sono d’accordo sul fatto che la protezione della privacy, la sicurezza e il benessere dei minori online siano inadeguate. Inoltre l’integrazione di intelligenza artificiale nelle piattaforme non fa che  aumentare i rischi esistenti o crearne di nuovi.

Da qui le richieste presenti nelle linee guida della Commissione europea che propongono misure per migliorare la sicurezza online per i minori, tra cui account più privati e sistemi di verifica dell’età. Queste azioni mirano a proteggere la privacy e ridurre i rischi, rendendo le piattaforme più sicure e sostenibili per gli utenti giovani.

La Commissione afferma che la protezione dei minori online non può essere demandata solo alle famiglie o agli utenti, ma deve essere integrata nella progettazione dei servizi digitali, basata su standard elevati e verificabili e fondata sui diritti dei minori, sanciti dalla Carta dei diritti fondamentali UE e dalla Convenzione ONU sui diritti dell’infanzia.

Come controllare l’età dei minori on line?

Una delle richieste è legata alla definizione dell’età di accesso. Il documento distingue chiaramente tra limiti di età e metodi di accertamento dell’età (autodichiarazione, stima, verifica).

Si tratta di un tema molto discusso e importate perché secondo la Commissione Europea l’accertamento dell’età è uno strumento, non una soluzione unica, deve essere proporzionato e rispettoso della privacy e non può sostituire educazione, progettazione responsabile e governance. Da qui da un lato la necessità che l’educazione digitale non si esaurisca nei divieti, ma costruisca competenze di autocontrollo, consapevolezza e responsabilità, dall’altro la discussione sulla scelta degli strumenti di controllo dell’età evitando l’obbligo di utilizzo di un documento di identità. Al riguardo non esistono ancora scelte chiare e definitive.

Il punto di vista del parlamento Europeo

Sugli stessi temi a fine novembre è intervenuto il parlamento europeo che, con una specifica risoluzione (non vincolante), ha chiesto maggiori tutele per i minori online, tra cui un limite minimo di 16 anni per iscriversi ai social media e l’interdizione delle pratiche più dannose che creano dipendenza.

I deputati hanno accolto accolto con favore gli sforzi della Commissione per sviluppare un’app dell’UE per la verifica dell’età e il portafoglio europeo di identità digitale (eID) sottolineando però che i sistemi di garanzia dell’età devono essere accurati e rispettare la privacy di ragazzi e ragazze. Questi sistemi, inoltre, non sollevano le piattaforme dalla responsabilità di garantire che i loro prodotti siano sicuri e appropriati per i minori.

Per incentivare una migliore conformità con il regolamento sui servizi digitali e con altre norme in materia, i deputati propongono di far sì che l’alta dirigenza possa essere chiamata a rispondere personalmente in caso di grave e persistente inosservanza delle disposizioni, soprattutto quelle legate alla protezione dei minori e alla verifica dell’età.

Il Parlamento chiede anche un intervento più deciso della Commissione rispetto ai seguenti temi:

  • vietare le pratiche di dipendenza più dannose e disattivare per impostazione predefinita altre caratteristiche che creano dipendenza per i minori, tra cui scorrimento infinito, riproduzione automatica, aggiornamento tramite trascinamento verso il basso, cicli di ricompensa e pratiche dannose di gamification (o ludificazione);
  • vietare i siti web che non rispettano le norme dell’UE;
  • intervenire per contrastare le tecnologie persuasive, come annunci mirati, pubblicità degli influencer, progettazione che crea dipendenza e percorsi oscuri, nell’ambito dell’imminente legge sull’equità digitale;
  • vietare i sistemi di raccomandazione basati sul coinvolgimento per i minori;
  • applicare le norme del regolamento sui servizi digitali alle piattaforme di videogiochi online e vietare scatole premio e altri contenuti randomizzati, come valute interne all’app, ruote della fortuna e meccanismi pay-to-progress (vale a dire quelli che spingono l’utente a spendere denaro per avanzare più rapidamente);
  • tutelare i minori dallo sfruttamento commerciale, anche vietando alle piattaforme di fornire incentivi finanziari per i bambini influencer;
  • affrontare con urgenza le sfide etiche e giuridiche poste dagli strumenti di intelligenza artificiale generativa, come deepfake, chatbot da compagnia, agenti di IA e app per denudare basate sull’IA (che generano immagini manipolate di persone senza il loro consenso).

Educazione Civica digitale

I documenti del Parlamento e della Commissione rafforzano ‘impegno della scuola  nell’ambito dell’educazione civica e della cittadinanza digitale rafforzando alcune scelte pedagogiche chiave:

  • educare alla consapevolezza dei rischi, non alla paura;
  • promuovere la partecipazione attiva e informata dei minori;
  • sviluppare competenze su privacy, identità digitale, benessere, uso critico delle piattaforme, IA e contenuti sintetici;

Si tratta di coinvolgere gi studenti come soggetti attivi e non solo destinatari di regole e divieti.

Non sei ancora un utente TS+?

Registrati gratuitamente in pochi passi per ricevere notifiche personalizzate e newsletter dedicate