
L’intelligenza artificiale è diventata una presenza sempre più tangibile nelle vite dei giovani, che la usano per le motivazioni più disparate: dalla creazione di contenuti alle ricerche scolastiche, dall’approfondimento di temi alla creazione di canzoni. Eppure, accanto alle opportunità, cresce anche una soglia di paura. I ragazzi e le ragazze raccontano preoccupazioni legate al lavoro, alla privacy, all’autonomia e all’impatto sociale.
In particolare una ricerca recente condotta all’Istituto Tecnico Rondani di Parma offre uno spaccato chiaro proprio su come viene percepita l’AI dalle Nuove Generazioni: accanto alla curiosità e all’entusiasmo, emergono rischi percepiti che ne modulano l’intenzione d’uso. L’istituto ha intervistato 729 studenti e ha osservato che le risposte più ricorrenti si concentrano su due elementi: il 67,1% teme la disoccupazione legata all’automazione, mentre il 55,6% segnala la possibilità di diventare dipendenti dall’uso degli strumenti.
A livello lavorativo ragazzi ritengono che l’IA potrebbe sostituire non solo mansioni manuali, ma anche professioni di natura cognitiva. Allo stesso tempo riconoscono il pericolo di una progressiva perdita di autonomia personale, con la tendenza a affidarsi sempre più alle macchine per compiti che in passato richiedevano impegno.
Timori infondati o prospettiva possibile?
In realtà queste preoccupazioni trovano riscontro anche in studi internazionali. Il rapporto McKinsey del 2023 stima che entro il 2030 fino al 30% delle attività lavorative potrebbe essere automatizzato. Shoshana Zuboff parla di una «cattura dell’attenzione» come nuovo dominio delle piattaforme digitali. Ecco, anche se non sono a conoscenza di queste previsioni, giovani sembrano interiorizzare questi scenari, traducendoli in timori personali.
Un altro rischio segnalato dagli studenti è la possibile perdita di creatività. L’idea che l’IA possa generare testi, immagini o musica alimenta la paura: «Se le macchine producono al posto nostro, cosa resta della nostra immaginazione?». È un timore legittimo, perché la creatività è percepita come una componente essenziale dell’umano. Tuttavia, come osserva Margaret Boden, «la creatività artificiale non sostituisce quella umana, ma la stimola e la amplia».
Tra i rischi che emergono c’è anche la diffusione di notizie fuorvianti e la perdita di controllo umano. L’IA generativa, in grado di produrre testi convincenti o immagini realistiche, può diventare veicolo di disinformazione. Lo dimostra il fenomeno dei deepfake, video manipolati che simulano discorsi mai pronunciati.
Il 46,7% degli studenti coinvolti nella ricerca Rondani ha indicato proprio la «disinformazione» come rischio concreto. Parallelamente, l’87,9% ritiene che debba rimanere sempre presente una supervisione umana sulle decisioni dell’IA. È una fiducia condizionata: gli studenti vogliono utilizzare l’IA, ma senza rinunciare al controllo decisionale umano.
Nonostante le paure, la maggioranza dei giovani intende impiegare l’IA. Alla domanda sulle intenzioni future, emerge un atteggiamento ambiguo: riconoscimento dei rischi, ma desiderio di sperimentare. Si tratta di una forma di «fiducia vigilante»: accettare l’IA purché resti sotto controllo. Il dato più interessante è che i rischi percepiti non annullano l’intenzione di utilizzo, ma la modulano. Gli studenti non dicono «no all’IA», ma «sì, con cautela».
La scuola non può ignorare queste paure. Anzi, deve trasformarle in oggetto di educazione critica. Deve aiutare i ragazzi a vedere l’IA non come concorrente, bensì come compagna di viaggio capace di ampliare le possibilità espressive. Parlare di IA in classe significa anche discutere dei rischi, ma non per alimentare il panico, bensì per formare cittadini capaci di governare la tecnologia. In questa ottica, l’educazione all’IA deve includere non solo competenze tecniche, ma anche abilità socio-emotive: resilienza, gestione del cambiamento e capacità di affrontare l’incertezza.
Esempi irradiati nel mondo In Finlandia, il corso Elements of AI prevede moduli dedicati ai limiti e ai rischi delle tecnologie. In Canada, alcune scuole secondarie hanno avviato laboratori di digital resilience, dove gli studenti apprendono a riconoscere notizie false generate dall’IA. In Corea del Sud, programmi governativi integrano l’educazione al rischio tecnologico nei curricoli di scienze sociali. Sono esperienze che mostrano come sia possibile affrontare i rischi in modo educativo, trasformando la paura in consapevolezza.











