
Ascolto, comprensione, disponibilità incondizionata. Quanti genitori, docenti, adulti di riferimento sono in grado di dare queste attenzioni a un adolescente in cerca di qualcuno a cui confidare le sue ansie e difficoltà, le sue gioie e vaghe speranze per un futuro percepito sempre più come minaccioso? Pochi, di certo, se consideriamo l’enorme diffusione e successo dei cosiddetti AI companions, assistenti virtuali basati sull’intelligenza artificiale, progettati non solo per fornire informazioni o assistenza tecnica, ma anche per instaurare rapporti affettivi, empatici e personalizzati con l’utente.
“Siamo pronti all’affettività digitale?” si chiede Carmela Giglio su direfareinsegnare.education. Giglio – esperta in comunicazione e progettazione di contenuti didattici , con un’attenzione particolare all’innovazione e al digitale – constata che mentre si discute ancora di come introdurre l’educazione affettiva nelle scuole, si diffonde un nuovo tipo di relazione, del tutto inedita e difficile da gestire persino per insegnanti e genitori, quella con l’Intelligenza Artificiale.
Secondo una recente indagine condotta da Skuola.net su un campione di 2000 ragazzi tra gli 11 e i 25 anni, il 15% ha ammesso di utilizzare quotidianamente una delle varie chatbot per confidarsi, sfogarsi e chiedere consigli personali. È evidente che non solo docenti e genitori ma anche amici e compagni di scuola sembrano latitare, anche il cosiddetto gruppo dei pari è in crisi se alla presenza fisica di un coetaneo che ci ascolti si preferisce una macchina.
I compagni virtuali infatti – si legge in un articolo del Post.it – tendono a selezionare quasi sempre risposte conciliatorie e non giudicanti, al contrario degli esseri umani, che possono scegliere di dirti quello che pensano veramente anche con il rischio di ferirti o non essere d’accordo con te.
Uno dei rischi principali è dunque che le persone che parlano spesso con questi software, sviluppino aspettative irrealistiche verso le relazioni umane, rendendo più difficile gestire i problemi e le frizioni che possono emergere quando si interagisce in presenza con una persona che ha desideri e opinioni diverse.
Il problema sta acquisendo dimensioni planetarie, tanto che nelle scorse settimane – come riferisce Avvenire – un’organizzazione no profit statunitense che promuove un uso più sano del digitale in famiglia, ha diffuso un avvertimento evidenziando i possibili danni causati da rapporti troppo stretti e affettivi con chatbot, programmati per creare dipendenza. La loro priorità è sempre dare ragione a chi li usa e nella relazione con un adolescente possono ad esempio indirizzarlo verso scelte discutibili come quella di abbandonare la scuola o interrompere i rapporti con i genitori.
Dobbiamo stare attenti, conclude Carmela Giglio rivolgendosi direttamente ai docenti: formatevi sull’Intelligenza Artificiale, non solo su come funziona tecnicamente e su come può essere implementata nella didattica. Vigilate sulle modalità con cui sta entrando in relazione con i vostri studenti e le vostre studentesse. È molto facile, soprattutto per gli adolescenti, cadere nell’isolamento sociale, nella dipendenza o nella confusione tra ciò che è reale e ciò che non lo è.
Come per molti altri fenomeni, la risposta non è ignorare il fenomeno, ma attivare una rete per creare consapevolezza: è necessario che la scuola coinvolga le famiglie, gli psicologi del territorio, ma anche gli esperti di Intelligenza Artificiale, che possano aiutare a capire come “ragiona” l’AI e in che modo può essere utile senza illudersi di non essere più soli.