Come i chatbot stanno trasformando il modo di studiare
Un viaggio tra le aule italiane per capire come l’IA sta modificando le abitudini di studio e di verifica
Il compito di italiano non lo scrive più solo lo studente, né solo il libro di testo: oggi, spesso, in mezzo c’è un chatbot. ChatGPT & co. sono entrati nelle scuole dalla porta di servizio, nei pomeriggi di studio a casa, e adesso tutti – ragazzi, professori, genitori – stanno cercando di capire se siano un alleato o l’ennesima scorciatoia che toglie fatica e anche un pezzo di cervello.
Dal tema in classe al prompt
Per molti studenti, usare un’IA è iniziato come un gioco: “scrivimi un tema su Leopardi”, “spiegami la fotosintesi come se avessi 10 anni”, “fammi una versione di latino”. Nel giro di pochi mesi, questi esperimenti sono diventati una routine di studio: si chiede all’IA di riassumere capitoli, generare tracce, proporre argomenti, correggere bozze.
La linea di confine però è sottile: c’è chi usa il chatbot come tutor, per capire meglio, e chi lo usa come fabbrica di compiti già pronti da copiare e incollare. In un sondaggio su studenti universitari, circa metà considera usare ChatGPT per svolgere i compiti una forma di “cheating”, cioè di imbroglio, mentre una quota non trascurabile lo vede come un normale aiuto tecnologico, quasi alla stregua di un motore di ricerca evoluto. Questo scarto di percezioni è esattamente il cuore del problema: non è solo una questione tecnica, è una questione culturale ed educativa.
Rischi reali: cosa si perde quando “pensa” il chatbot
Il primo rischio è semplice da descrivere e devastante nel tempo: se a fare il lavoro duro è sempre la macchina, alcune competenze smettono di svilupparsi. Scrivere un tema, risolvere un problema, costruire un’argomentazione sono esercizi di muscolo cognitivo; se li appalti sistematicamente all’IA, quel muscolo si atrofizza. Studi in ambito educativo segnalano proprio questo: un uso passivo di ChatGPT può ridurre lo sviluppo di capacità di pensiero critico, creatività, ragionamento e problem solving.
Il secondo rischio riguarda l’integrità accademica. Se un elaborato prodotto quasi integralmente da un chatbot viene presentato come “lavoro personale”, si entra nel campo di una nuova forma di plagio: il testo non è copiato da un autore umano specifico, ma è comunque frutto del lavoro di qualcun altro – in questo caso, un modello addestrato su milioni di testi altrui. Non è solo una questione di regolamento: è una distorsione del patto educativo, in cui il voto dovrebbe misurare ciò che lo studente sa e sa fare davvero, non quanto è bravo a scrivere prompt.
C’è poi un rischio meno visibile: la falsificazione dell’apprendimento. Se gli strumenti di verifica (compiti a casa, tesine, relazioni) vengono “gonfiati” dall’IA, il docente riceve un segnale falsato sulle competenze reali della classe; questo porta a programmare lezioni, valutazioni, supporti su una fotografia che non esiste.
Le opportunità: quando l’IA diventa un tutor
Detto questo, l’altra metà della storia non va ignorata. Usata con criterio, l’IA può diventare un tutor personale sempre disponibile, capace di spiegare lo stesso concetto in dieci modi diversi, adattandosi al livello e allo stile di apprendimento dello studente. Diversi studi e analisi in ambito educativo sottolineano come ChatGPT possa facilitare l’accesso alle informazioni, personalizzare i percorsi, proporre esercizi aggiuntivi, chiarire dubbi “minori” che spesso gli studenti si vergognano a portare in classe.
Per i docenti, i benefici potenziali non sono banali: l’IA può aiutare a preparare scalette di lezione, generare esempi, simulare esercizi, creare varianti di una prova con livelli di difficoltà diversi, alleggerendo il carico ripetitivo e liberando tempo per la parte più umana dell’insegnare – ascoltare, motivare, seguire chi resta indietro. Se inquadrata bene, l’IA può anche diventare oggetto stesso di educazione: confrontare risposte del chatbot con fonti affidabili, discutere i suoi errori, usarla per allenare la capacità di valutare criticamente informazioni, invece di berle senza filtro.
Copiare o usare uno strumento? La vera differenza
La domanda che torna nei collegi docenti e nelle chat di classe è quasi sempre la stessa: “Quando è che usare ChatGPT è copiare?”. Una distinzione sempre più citata da ricercatori e formatori è quella tra usare l’IA come scorciatoia e usarla come scaffold, cioè impalcatura di supporto all’apprendimento.
È scorciatoia quando il chatbot produce direttamente il prodotto finale che sarà valutato: il tema già scritto, la ricerca completa, la traduzione pronta, che lo studente si limita a firmare. In questo caso, l’IA sostituisce il processo cognitivo, non lo accompagna.
È impalcatura, invece, quando l’IA viene usata per: generare idee da selezionare e rielaborare; chiedere spiegazioni su un concetto prima di rimetterlo in parole proprie; proporre controargomentazioni che lo studente deve confutare; correggere la forma di un testo già scritto a mano o in bozza. Qui l’IA non è l’autore dell’elaborato, ma un interlocutore che stimola, suggerisce, evidenzia errori; il valore aggiunto, quello valutabile, resta nel lavoro umano di selezione, adattamento, critica.
Un altro discrimine fondamentale è la trasparenza. Se un elaborato nasce anche grazie a un supporto di IA, dichiararlo – ad esempio descrivendo in poche righe come è stato usato lo strumento – sposta l’uso da zona grigia a terreno gestibile e discutibile insieme al docente. Tacerlo, invece, trasforma la stessa interazione in un atto di inganno, anche quando il contributo dell’IA è stato marginale.
Il nuovo ruolo dei professori
La reazione iniziale di molte scuole è stata il blocco: vietare i siti, proibire gli strumenti, inserire righe minacciose in regolamento. È una risposta comprensibile nel breve periodo, ma poco sostenibile nel lungo: gli studenti continuano ad avere accesso da casa e la tecnologia evolve più velocemente delle circolari ministeriali.
Le linee guida più recenti nelle università e nei centri di didattica vanno in un’altra direzione: non ignorare l’IA, ma esplicitarne le regole di ingaggio. Questo significa dichiarare a inizio corso cosa è consentito e cosa no, distinguere tra compiti in cui l’uso dell’IA è vietato, compiti in cui è permesso e compiti in cui è addirittura richiesto, perché l’obiettivo è anche imparare a usare lo strumento in modo competente.
Per i docenti, il cambio di paradigma è profondo: valutare non solo il “tema finito”, ma il processo che lo ha generato, chiedendo bozze intermedie, schemi, riflessioni su come è stato usato (o non usato) il chatbot. Significa anche rivedere le prove di verifica: più momenti in presenza, orale, attività che richiedono collegamenti originali e ragionamento, meno compiti a casa facilmente “outsourcabili” all’IA.
In questa prospettiva, il professore smette di essere il poliziotto che deve solo “beccare chi copia” e diventa il designer dell’ambiente di apprendimento in cui l’IA è uno strumento tra tanti, con regole chiare, limiti e possibilità. È un ruolo più complesso, ma anche più coerente con la scuola di oggi, dove la sfida non è impedire agli studenti di usare la tecnologia, ma insegnare loro a non farsi usare da essa.
A cura di Davide Cannata
Leggi anche: Il lato nascosto di Internet: cos’è il Dark Web