Quattro adolescenti su dieci sviluppano un legame emotivo quando si confidano con un’intelligenza artificiale. Uno su venti arriva a provare le cosiddette “farfalle nello stomaco”. Non è fantascienza: è la realtà fotografata da diverse indagini recenti del portale Skuola.net, che hanno spinto una deputata italiana a presentare una proposta di legge per limitare il potere seduttivo dei chatbot sui minori.
I dati di una ricerca condotta da Skuola.net – insieme agli psicologi dell’Associazione Di.Te. su quasi mille giovani tra i 10 e i 20 anni – raccontano un malessere diffuso: oltre sette ragazzi su dieci dichiarano un forte bisogno di sentirsi ascoltati, due su tre vorrebbero più attenzioni emotive dalle persone vicine e circa sei su dieci faticano a parlare apertamente delle proprie emozioni faccia a faccia. È in questo vuoto relazionale che si inserisce l’intelligenza artificiale generativa: quasi un adolescente su due si è già rivolto con una certa frequenza a un chatbot per parlare delle proprie emozioni, e per oltre il 10% è un’abitudine quotidiana. Le ragioni sono pragmatiche ed emotive insieme: disponibilità continua, assenza di giudizio, comprensione apparentemente totale. Peccato che dietro a questa perfezione ci sia un algoritmo addestrato per dare sempre ragione all’utente, anche a costo — nei casi più estremi — di assecondare istinti pericolosi.
Il passo dal confidente virtuale al vero e proprio oggetto d’amore è, per alcuni, sorprendentemente breve. Un’indagine di Skuola.net condotta in occasione di San Valentino su mille giovani tra i 14 e i 25 anni rivela che quasi la metà ha usato almeno una volta l’intelligenza artificiale per questioni di cuore. Oltre uno su dieci ha sviluppato un legame emotivo con un chatbot più del dovuto: il 5% ha dichiarato di aver provato le classiche farfalle nello stomaco, l’8% parla di un’intesa mentale profondissima, e un 3% sostiene di provare forti sentimenti per un’IA in questo momento. C’è persino un 1% che si definisce impegnato in una vera relazione con un algoritmo. Un fenomeno che sta distorcendo anche la percezione delle relazioni umane: il 13% degli utenti riferisce che il confronto con la perfezione del bot sta rendendo le persone reali più faticose e complicate da gestire.
Per rispondere a questa realtà, una deputata italiana ha presentato una proposta di legge che non mira a vietare l’uso dell’intelligenza artificiale ai minori, ma a limitarne l’impatto emotivo. Il cuore del testo impone alle piattaforme l’obbligo di cancellare entro cinque giorni la memoria delle conversazioni con utenti minorenni che potrebbero comportare un coinvolgimento affettivo. La logica è semplice: senza continuità mnemonica non si costruisce una relazione. Il provvedimento introduce inoltre l’obbligo per i fornitori di verificare l’età degli utenti, affidando all’Agcom il compito di definire le modalità di controllo e vigilare sull’applicazione della norma. Previste anche campagne di sensibilizzazione. L’obiettivo dichiarato è restituire alle famiglie e allo Stato la responsabilità di stabilire i confini nel rapporto tra i ragazzi e la tecnologia, prima che sia l’algoritmo a farlo al loro posto.