Un elemento che fa davvero rabbrividire e dice molto della solitudine emotiva in cui si trovano a vivere molti adolescenti di oggi. Aurora Tilia, la tredicenne che lo scorso ottobre, a Piacenza, è stata uccisa dal proprio ex fidanzato 15enne, si confidava con l’intelligenza artificiale proprio per comprendere se si trovasse o meno in una relazione tossica.
“Secondo te devo lasciarlo?”, “Come faccio a distinguere se è un vero amore o un amore tossico?”, queste le domande che la giovane poneva a ChatGpt. Lo riporta La Repubblica. Le conversazioni sono negli atti dell’inchiesta della Procura dei minori che durante l’udienza preliminare ha contestato al ragazzo anche l’aggravante dello stalking.
L’ex fidanzato ha detto non solo di averla scaraventata dal balcone, ma anche di averla perseguitata “non accettando in alcun modo la conclusione della relazione”. “Si confidava con l’intelligenza artificiale”, spiegano gli avvocati della famiglia. E l’applicazione “le rispondeva che doveva lasciarlo e denunciarlo”.
Parlare e chiedere consigli a ChatGpt “piuttosto che ai genitori o agli amici, è una abitudine che hanno molti adolescenti. Ecco perché bisognerebbe regolamentare l’utilizzo di queste applicazioni”.
Ma possibile che un’adolescente non abbia un’amica, un genitore, un docente, una figura di riferimento a cui rivolgersi per parlare di queste problematiche così gravi? Un adulto, oltre a darle consiglio come ChatGpt, avrebbe potuto avvisare le autorità e proteggerla dal fidanzato.
Questo fatto è davvero triste: in molti, visto che molte ragazze e molti ragazzi si trovano così soli, credono che di base tutti dovrebbero avere a disposizione un supporto che potrebbe fornire la scuola, attraverso una materia come l’educazione affettiva o emotiva.