Lo sviluppo delle tecnologie ha portato alla nascita di strumenti basati sull’Intelligenza Artificiale, mai visti prima, come ChatGPT, sviluppata da OpenAI. La sigla GPT sta per Generative Pre-trained Transformer, una tecnologia nuova, applicata al machine learning che restituisce un modello di linguaggio basato appunto sull’intelligenza artificiale; esso funziona grazie ad un addestramento strutturato e basato su fonti certificate, operato prima del suo rilascio. Questo strumento può generare testi completamente inediti di una certa qualità e su una varietà di argomenti, rendendo poù difficile che mai la distinzione tra un elaborato scritto da una persona e uno prodotto da una intelligenza artificiale.
Indice dei contanuti
ToggleMolti adolescenti hanno iniziato ad utilizzare questo strumento prima ancora che i loro stessi insegnanti ne venissero a conoscenza; non è difficile dunque immaginarne le conseguenze… Io stesso, sul finire del precedente Anno Scolastico ho sperimentato questa situazione. Di fronte al dubbio, ho invitato i “sospettati” a dire la verità, spiegando loro che stavo conducendo una personale ricerca per capire quando e se un alunno utilizza ChatGPT per la redazione di un elaborato, aggiungendo che non avrebbero subito conseguenze negative per la loro valutazione. Sulla mia parola, i ragazzi hanno ammesso di aver utilizzato questo strumento e mi hanno anche raccontato in che modo: uno di loro lo aveva utilizzato in toto, per la stesura dell’intero elaborato, altri 2 lo avevano utilizzato in forma parziale, cioè per la stesura di alcune parti del tema o per capire come un concetto poteva essere meglio esposto. Infine, un altro di loro ha riferito di aver scritto l’intero tema di suo pungo, ma poi di averlo “dato in pasto” a ChatGPT per ottenerne una versione corretta, soprattutto dal punto di vista grammaticale e sintattico.
Nessuna conseguenza negativa sulla valutazione, ma a tutti ho chiesto di rifare il compito 🙂
Veniamo al dunque: è davvero possibile, in modo inequivocabile, sapere se un alunno ha utilizzato ChatGPT per la stesura di un elaborato? La risposta breve è no; tuttavia, ci sono vari indizi e metodi che possono suggerire l’uso di ChatGPT o di altre piattaforme di Intelligenza Artificiale.
Potremmo scrivere pagine e pagine sul valore dell’educazione, sulla motivazione ad apprendere, sul fatto che l’istruzione non è finalizzata al foto ecc. ecc. Se di tutto questo fossimo davvero consapevoli il problema non si porrebbe e né ChatGPT, né altri chatbot basati sull’AI, troverebbero spazio nella stesura degli elaborati dei nostri alunni. Questa però non è la sede per approfondire tali tematiche… anche perché non so quanto e se davvero ne sarei capace.
Vediamo allora come – a mio parere – è possibile identificare l’uso potenziale di ChatGPT all’interno di un elaborato scolastico.
Per capire questo, occorre anzitutto conoscere i limiti e le potenzialità di un sistema in continua evoluzione (rimando al blog di OpenAI). Da tenere presente tuttavia che, al momento, la maggioranza degli alunni che utilizza ChatGPT per la stesura degli elaborati, si avvale del modello gratuito 3.5, più facile da identificare rispetto al modello premium ChatGPT 4, più evoluto del precedente.
Ovviamente, gli accorgimenti che illustrerò di seguito rispondono in maniera differente alle varie tipologie testuali: per le diverse modalità di organizzare il linguaggio ed esporre il contenuto, per gli scopi stessi dell’elaborato, per la necessità di inserire considerazioni personali, per la ricerca delle fonti ecc. ecc.
Profondità e Contestualizzazione
La profondità e la contestualizzazione sono due aspetti fondamentali di qualsiasi elaborato. La profondità si riferisce alla capacità di esaminare un argomento in maniera dettagliata e complessa, mentre la contestualizzazione riguarda la capacità di posizionare un argomento o un’idea all’interno di un quadro più ampio, collegandolo a concetti, eventi o argomenti correlati. Ecco come questi due aspetti si manifestano in relazione all’uso di ChatGPT o di strumenti IA simili.
- Limiti della profondità di ChatGPT: mentre ChatGPT può fornire risposte dettagliate e ben formulate su una vasta gamma di argomenti, può mancare di una comprensione autenticamente profonda. La sua risposta è basata sull’analisi di enormi quantità di testo e sulle informazioni che ha imparato, ma non ha la capacità di “riflettere” o di fornire analisi originali. Si ha come la sensazione di leggere un “testo freddo”, come se chi sta scrivendo non abbia di fatto compreso a pieno l’argomento e non sia quindi in grado di affrontarlo o trattarlo in modo più “profondo e originale”.
- Mancanza di contestualizzazione autentica: sebbene ChatGPT possa collegare diverse informazioni tra loro, potrebbe non fornire sempre una contestualizzazione approfondita. Ad esempio, potrebbe non collegare un argomento ad eventi storici specifici o tendenze culturali a meno che non gli venga specificamente richiesto. Gli elaborati che mancano di questo tipo di contestualizzazione possono apparire come una raccolta di fatti o concetti disconnessi, piuttosto che come un’analisi coerente e integrata.
Se noti che un elaborato ha una mancanza di dettagli specifici, esempi concreti o non fa riferimento a concetti correlati, potrebbe essere un segnale che l’informazione provenga da un generatore di testo come ChatGPT. Gli studenti che realmente si immergono in un argomento spesso mostrano segni ambiguità e tentativi di risolvere complessità, mentre un testo generato da Ai potrebbe apparire più piatto e superficiale.
Considerazioni sulla flessibilità linguistica
La flessibilità linguistica rappresenta la capacità di variare e adattare il proprio stile di scrittura e l’uso della lingua in base al contesto, al pubblico o all’obiettivo comunicativo. ChatGPT, come altri modelli di linguaggio basati sull’AI, è in grado di produrre testi in diversi stili linguistici. Se noti che un alunno presenta lavori con stili drasticamente diversi, da un compito all’altro, potrebbe essere un chiaro indizio. Un altro è dato dalla coerenza “artificiale” dello stile in tutto l’elaborato, specialmente se l’argomento richiede una complessa integrazione di fonti o punti di vista.
Eccessiva Verbosità
Semplificando, l’eccessiva verbosità si riferisce all’uso di più parole di quelle necessarie per esprimere un’idea o rispondere a una domanda. Si tratta forse del punto più interessante di questa “carrellata di indizi”: l’esperienza da me vissuta, infatti, ha voluto che fosse proprio questo aspetto a farmi sorgere il dubbio.
Gli strumenti di IA come ChatGPT sono progettati per essere esaustivi, in modo da fornire all’utente una risposta completa e soddisfacente. Questa linea di programmazione può generare:
- dettagli aggiuntivi non richiesti;
- estensione del discorso non necessaria;
- ripetizioni di premesse ad un concetto;
- utilizzo di due sinonimi per rafforzare un concetto;
- periodi artificiosi e ridondanti.
Inoltre, essendo addestrato su enormi quantità di testo, ChatGPT tenta a volte di emulare stili di scrittura che ha identificato come popolari o autorevoli, il che può portare a una certa prolissità.
Qualità e stile del linguaggio
In relazione a quest’ultimo punto, avrete notato che ChatGPT tende a produrre testo con un linguaggio fluente e ben formulato che potrebbe risultare più evoluto e sofisticato rispetto al livello medio di scrittura di un alunno. Considerando che questo post è essenzialmente rivolto a colleghi, su questo aspetto non voglio dilungarmi più del necessario, per evidenti ragioni.
Temi ricorrenti
Se si notano temi o argomenti simili tra diversi studenti della classe che non erano parte centrale del compito, potrebbe indicare l’uso di una risposta generica fornita da ChatGPT. Come per il precedente, anche su questo punto non credo sia necessario dire di più.
Errori di contesto o anacoluti
Nella generazione di testo basata su IA, la comprensione e il rispetto del contesto sono fondamentali; tuttavia, i modelli di testo, come ChatGPT, possono talvolta produrre risposte che, pur essendo grammaticalmente corrette, non hanno senso nel contesto specifico della domanda. Cercherò di spiegare meglio questo fenomeno che trovo molto interessante poiché strettamente legato ai processi che regolano il funzionamento di questi modelli.
C’è da dire anzitutto che ChatGPT elabora le risposte basandosi sulle associazioni tra parole e concetti presenti nell’enorme quantità di dati fornita durante il suo addestramento. Se la domanda iniziale non è chiara o presenta ambiguità, il sistema potrebbe selezionare una risposta che è associata in qualche modo alla domanda, ma che potrebbe non essere direttamente pertinente. Secondo questa logica, il modello potrebbe generare anacoluti, ovvero, frasi che iniziano in un modo, ma terminano in un altro, inaspettato e non correlato. Questi fenomeni, in particolare, possono emergere quando l’IA tenta di integrare diverse informazioni in una singola risposta.
Conclusione
In un’era dominata dalla tecnologia e dalla crescente accessibilità degli strumenti di Intelligenza Artificiale come ChatGPT, diventa imperativo per noi insegnanti non solo comprenderli, ma anche guidare i nostri alunni verso un loro uso etico e consapevole. La tentazione di affidarsi a questi strumenti per compiti e ricerche è innegabile, ma dobbiamo vedere oltre il problema immediato e riconoscere l’opportunità educativa che ci viene presentata.
Prima di tutto, è fondamentale informare ed educare gli studenti sull’esistenza e sulle capacità di questi strumenti. Molti potrebbero utilizzarli per semplice curiosità, altri per cercare scorciatoie nei loro compiti. Tuttavia, comprendere profondamente come funzionano e quali sono i loro limiti può aiutare gli studenti a discernere quando e come usarli in modo appropriato.
Invece di proibire semplicemente l’uso di ChatGPT, potremmo incoraggiare gli alunni ad utilizzarlo come uno strumento di apprendimento complementare: per esplorare argomenti o per ottenere spiegazioni su concetti che trovano difficili. L’AI può assistere l’alunno, ma non sostituisce la capacità di analisi e la riflessione critica. In questa prospettiva, ogni risposta ottenuta da ChatGPT o da altri modelli di linguaggio basati sull’AI, dovrebbe essere analizzata, verificata e integrata nel contesto dell’apprendimento. La riflessione e l’analisi sono competenze fondamentali che gli studenti devono sviluppare, e confrontare le risposte dell’IA con fonti affidabili può essere un ottimo esercizio.
Concludo con una celebre frase di Umberto Eco, il quale, insieme ad altre importanti personalità, aveva intuito da subito l’importanza dei computer:
Il computer non è una macchina intelligente che aiuta le persone stupide, anzi, è una macchina stupida che funziona solo nelle mani delle persone intelligenti
Umberto Eco, Prefazione al libro di Come scrivere una tesi di laurea con il personal computer, pubblicato da Rizzoli nel 1986.