Negli ultimi anni, le scuole hanno dovuto affrontare un’ondata di discussioni sugli strumenti di intelligenza artificiale generativa come ChatGPT. Mentre alcuni li pubblicizzano come trasformativi e altri mettono in guardia dai potenziali danni, molti insegnanti rimangono riluttanti ad adottarli completamente. Non si tratta necessariamente di resistenza all’innovazione, ma di una valutazione pragmatica: questo strumento risolve un problema reale in classe?
Una recente ricerca, che include conversazioni con 17 insegnanti in tutto il mondo, rivela una tendenza sorprendente: gli insegnanti non rifiutano l’intelligenza artificiale, ma non stanno nemmeno riorganizzando le classi attorno ad essa. Stanno invece adottando un approccio misurato, sfruttando l’intelligenza artificiale per la produttività pur mantenendo i limiti attorno alle attività di apprendimento fondamentali. Questa non è indifferenza, ma giudizio professionale.
Il divario di produttività: dove l’intelligenza artificiale ha un valore immediato
Il caso d’uso più immediato dell’IA nell’istruzione non è l’apprendimento degli studenti, ma il carico di lavoro degli insegnanti. Gli educatori si destreggiano tra valutazione, pianificazione delle lezioni, comunicazione con i genitori e attività amministrative. In questo ambiente, gli strumenti di intelligenza artificiale eccellono nella stesura, nel riepilogo e nella generazione di testo. Un insegnante di ingegneria del New Jersey ha notato l’utilizzo dell’intelligenza artificiale per comprimere le attività di routine, affermando che aiuta davvero ad alleggerire il carico amministrativo. Gli American Educator Panels di RAND confermano questo modello: gli insegnanti stanno adottando l’intelligenza artificiale principalmente come strumento di produttività, non come tecnologia didattica fondamentale.
Ciò rispecchia il modo in cui i professionisti di tutti i settori utilizzano l’intelligenza artificiale: risolve il problema immediato della pressione del tempo e delle richieste amministrative. Ma i casi d’uso didattici richiedono una considerazione più attenta.
Il ruolo didattico poco chiaro: quali problemi di apprendimento risolve l’intelligenza artificiale?
Quando si tratta di insegnamento diretto in classe, gli insegnanti si pongono una domanda fondamentale: quale problema di apprendimento risolve questo strumento? Molti non sono convinti, anche dopo anni di esposizione. Alcuni sperimentano l’intelligenza artificiale come partner di revisione nella scrittura, mentre altri progettano lezioni sulla tecnologia stessa, incoraggiando l’analisi critica piuttosto che la cieca fiducia. Un insegnante di scienze di Guam ha affermato che utilizzano l’intelligenza artificiale come punto di partenza, ma non come fonte di conoscenza autorevole.
L’apprendimento scientifico suggerisce che gli studenti traggono maggiori benefici quando la tecnologia supporta la riflessione e la revisione, non sostituendo il pensiero critico. Ciò significa che l’intelligenza artificiale è più preziosa come strumento per analizzare piuttosto che come scorciatoia per ottenere risposte.
Alfabetizzazione sull’intelligenza artificiale: un punto di ingresso pratico
L’opportunità didattica più promettente risiede nella stessa alfabetizzazione all’intelligenza artificiale. L’UNESCO e l’OCSE la considerano sempre più una competenza fondamentale, incoraggiando le scuole a insegnare agli studenti come i sistemi algoritmici generano informazioni e dove falliscono. Gli studenti già navigano in ambienti modellati da algoritmi; l’intelligenza artificiale generativa è solo un altro livello.
Gli insegnanti si stanno concentrando sull’aiutare gli studenti a comprendere come questi sistemi producono informazioni, compresi i loro pregiudizi e limiti. Un insegnante elementare di New York ha descritto illustrando come funzionano i sistemi di intelligenza artificiale e dove si guastano. Questo approccio considera l’intelligenza artificiale come un caso di studio su come i sistemi digitali modellano la conoscenza, piuttosto che come uno strumento di produttività.
Pregiudizi, allucinazioni e fiducia: affrontare i rischi
Gli insegnanti sollevano costantemente preoccupazioni sull’affidabilità dei risultati dell’intelligenza artificiale. Uno specialista dei media delle biblioteche di New York ha osservato che l’intelligenza artificiale spesso “allucina” i fatti, mentre altri indicano esempi reali di pregiudizi algoritmici. Un insegnante di scuola superiore del New Jersey ha espresso preoccupazione su come l’intelligenza artificiale potrebbe rafforzare le disuguaglianze esistenti, in particolare per gli studenti provenienti da comunità emarginate.
Questi problemi non sono solo teorici; sono preoccupazioni pratiche relative alla fiducia e all’accuratezza. L’intelligenza artificiale diventa meno uno strumento per rispondere a domande e più una dimostrazione di come i sistemi tecnologici modellano le informazioni.
Indifferenza pragmatica: la posizione predefinita
Gli insegnanti non rifiutano necessariamente l’intelligenza artificiale, ma non si affrettano a integrarla nelle attività di apprendimento fondamentali. Molti adottano un atteggiamento di indifferenza pragmatica: lo usano per pianificare le lezioni ma non necessariamente per le lezioni stesse. Scoraggiano gli studenti dall’affidarsi all’intelligenza artificiale per la ricerca.
Le scuole esistono per promuovere un lavoro cognitivo complesso: lettura approfondita, scrittura metodica, ragionamento e valutazione delle prove. Se uno strumento riduce principalmente la necessità di questo lavoro, gli insegnanti si chiedono se esso favorisca o indebolisca l’apprendimento.
In definitiva, la domanda dell’insegnante di quarta elementare rimane: cosa può effettivamente fare l’intelligenza artificiale per la matematica di quarta elementare? Fino a quando il caso d’uso didattico non sarà chiaro, la conversazione deve spostarsi sulle competenze che rimangono preziose: pensiero critico, risoluzione dei problemi e analisi rigorosa.




















