Grazie alla segnalazione di Gino Roncaglia, ho letto l’interessante (e lungo) articolo di Will Oremus su Slate
No More Pencils, No More Books
Artificially intelligent software is replacing the textbook—and reshaping American education.
L’articolo parte da una classe di pre-algebra al Westchester Community College di Valhalla, New York.
Gli studenti lavorano individualmente con ALEKS (Assessment and Learning in Knowledge Spaces), che è un software di istruzione programmata sviluppato da un team di matematici, scenziati cognitivi e ingegnieri software all’università UC–Irvine negli anni 1990.
L’articolo parte dal fenomeno della conversione degli editori di manuali, come McGraw-Hill e Pearson, verso il digitale, cioè verso la produzione di “corsi adattivi”, e risale alle teaching machines skinneriana memoria, al Learning’s Cognitive Tutor for algebra della Carnegie University, per poi citare i risultati controversi di vari studi sull’efficiacia degli strumenti digitali, MOOC compresi.
Oremus parla di un settore particolare dell’apprendimento digitale, che sembrerebbe stare riprendendo vigore in USA – quello dell’adaptive learning, ovvero degli strumenti automatici di insegnamento – ma il tema ne tocca da vicino altri. Vale la pena farne una lettura approfondita, e ve lo consiglio. Approfitto per qualche nota a margine, con l’occhio naturalmente alla situazione italiana. Dove ci sono siti che offrono ripetizioni online, corsi su Youtube e MOOC, ma ancora non si vede un mercato per l’adaptive learning.
Anni fa, Roberto Maragliano parlava di tre possibili rapporti tra media ed educazione. Si possono insegnare i media, insegnare con i media e insegnare dentro i media. Applicato ai media digitali, la classificazione forse non è così facile (un ambiente come Scratch a quale categoria appartiene?) ma è comunque utile. Oremus sta parlando della seconda categoria.
Un primo elemento intessante che emerge dall’analisi (ma forse è abbastana scontato) è senz’altro l’ambito disciplinare: possono essere oggetto di didattica digitale solo gli ambiti in cui c’è una risposta esatta. Dice Ulrik Christensen, McGraw-Hill Education:
How much you can automate depends on what you’re trying to teach. In a math class like Whelan’s, the educational objectives are relatively discrete and easily measured.[…]
ALEKS is designed only to work for math, chemistry, and business classes.[…]
Adaptive technologies presume that knowledge can be modularized and sequenced
Non dovrebbe essere una sorpresa, no? La prima domanda è se tutta la conoscenza può essere modularizzata e messa in sequenza, e se convenga farlo. Wikipedia è un esempio di conoscenza modularizzata ma non sequenzializzata. La nostra ADA (non il linguaggio e nemmeno la signorina Lovelace, ma la piattaforma di elearning) si basa su frammenti di conoscenza reticolare, collegati fra loro.
Con le parole di un ricercatore del MIT che si occupa di “digital learning “, Justin Reich, i computer “are good at assessing the kinds of things—quantitative things, computational things—that computers are good at doing. Which is to say that they are good at assessing things that we no longer need humans to do anymore”
Qui l’accento si è spostato sulla valutazione. E’ interessante notare che il punto critico non sembra essere l’organizzazione della disciplina, ma la tecnologia. Cioè non si dice che il problema è che dove non è facile descrivere in una struttura competenze, conoscenza, relazioni, test, allora non è possibile creare una versione automatica (digitale o meno) del tool adattivo, ma semplicemente che i computer sono troppo stupidi per trattare cose complesse.
Mi pare che questo abbia a che fare con la visione dicotomica delle scienze in scientifiche e umanistiche. Quelle scientifiche sono quelle in cui ci sono fatti e teorie verificabili, quelle umanistiche sono le discipline in cui vale solo il forse, può darsi, credo che. Quindi dove non si può fare valutazione quantitativa.
Ho dei dubbi che questa divisione sia accettabile. Così si ignora completamente la storia delle discipline, la storia degli errori, il rapporto tra teorie di fondo e “fatti”. Anni di studi di epistemologia e storia delle scienza buttati al vento.
Quando il dominio non è quantatitivo, comunque, McGraw-Hill propone un altro software, Learn Smart, e un nuovo sistema, che si chiama Connect Master.
But Connect Master takes less of a behaviorist approach than a conceptual one, asking a student to show his work on his way to solving a problem. If he gets it wrong, it tries to do something few other programs have attempted: analyze each step he took and try to diagnose where and why he went wrong
L’esempio che viene portato nell’articolo è divertente. E’ un pezzetto di software (del Carnegie Mellon’s Pittsburgh Advanced Cognitive Tutoring Center) che chiede di svolgere un’addizione tra frazioni, riportando i denominatori ad un mcm. Se si commettono errori, il software commenta e suggerisce.
Ma se, ad esempio, si sceglie un denominatore comune più grande del mcm, il sofware non sa bene che fare. Obiettivamente il risultato è corretto, ma il software non riesce ad accorgersene. Qui chiaramente, come riconosce Oremus, non c’è intelligenza artificiale. Sarebbe meglio dire che la conscenza del dominio è cablata nel software.
Il problema però è che
Accurately diagnosing a student’s misconceptions is a harder conundrum than you might think, explains McGraw-Hill Education’s Christensen. An algebra problem may have only one correct answer. But there are countless not-incorrect steps that a student could theoretically take on the path to solving it. If you’re not careful, your software will tell you you’re on the wrong track, when in fact you’re just on a different track than the one your textbook authors anticipated.
E qui sono daccordo. Per un breve periodo, parecchi anni fa, ho perso il mio tempo in un gruppo di ricerca di IA applicata all’educazione, in un Università romana. Uno dei temi era il modello dello studente, basato sulle misconception, cioè sui punti di partenza (sbagliati) del ragionamento (corretto). Ricordo che quando ho provato a intrudurre l’idea di un modello di studente in cui non fossero tanto errati i punti di partenza, ma le regole di deduzione, mi hanno guardato come un marziano.
E poi mi hanno rispedito a casa.
Non era il MIT e non era il 2016.
Più o meno nello stesso periodo, ma in un’altra facoltà, lavoravo ad un software che cercava di ricostruire i modelli di categorizzazione di ragazzini con difficoltà di apprendimento.
Al ragazzino veniva proposto una figura geometrica colorata e gli si chiedeva di collocarlo insieme ad altri, selezionando le caratteristiche significative (colore, forma, dimensione). Il software in origine non aveva scopi diagnostici, ma solo terapeutici. Quello che ho cercato di fare è raccogliere i dati dell’interazione e far costruire al software un’ipotesi sul modello di categorizzazione usato dal ragazzino.
Ora io lavoravo da solo con competenze scarse e raffazzonate, e qundi ho lasciato perdere. Mi fa piacere scoprire che da qualche parte c’è qualcuno che sta ancora studiando il problema.
Però mi stupisce che vent’anni dopo si stia più o meno allo stesso punto. Che ciclicamente ritorni l’idea di un software che propone contenuti, valuta la conoscenza dello studente e poi gli propone altri contenuti. Senza provare a costruire un modello della disciplina insegnata che possa comprendere non solo l’algebra, senza provare a introdurre il lavoro di gruppo, la costruzione di conoscenza collaborativa, gli stili cognitivi personali. Senza immaginare ambienti in cui la connessione tra parti sia esplicita, visibile per il corsista, che può scegliere e costruirsi percorsi.
Vedo, da vent’anni, sempre e solo due strade: la presentazione di contenuti in sequenza oppure il ritorno alle teaching machine ma con computer più potenti e più multimedia. Due strade che hanno in comune la svalutazione dello studente e delle sue metacompetenze.
Verso il termine dell’articolo viene affrontato il tema del’uso dei dati e della privacy.
By tracking everything they read, every problem they solve, every concept they master, Knewton could compile a “psychometric profile” on each student that includes not only what she learned but how readily she learned it, and at what sorts of problem-solving she struggled and exceled. That sort of data could be of great interest to admission committees and employers. It could also, in theory, erode the privacy that has traditionally surrounded young people’s schoolwork.
Ecco: dopo che ormai tutti hanno capito che i profili delle persone che usano i servizi gratuiti offerti sono un valore molto più grande dell’eventuale ritorno da abbonamenti agli stessi servizi, Oremus si accorge che nel momento in cui questo avvenisse per l’educazione ci sarebbe un mercato ghiotto. Con buona pace dei progetti di Learning Analytics (es. LACE http://www.laceproject.eu/)
La conclusione riporta un aneddoto famoso, di trent’anni fa, che suona più o meno così.
Un professore pone ai suoi alunni il seguente problema “Ci sono 125 pecore e 5 cani in un gregge. Quanti hanni ha il pastore?”
Tre quarti degli studenti rispondono con un numero, dopo aver tentato varie operazioni.
Il succo dell’articolista è che gli “adaptive software” formeranno generazioni di studenti capaci di applicare operazioni, ma non di dare la risposta “corretta” (che dovrebbe essere “che significa questo problema? ho abbastanza dati per rispondere?”).
Ora temo che il dubbio legittimo di Oremus non si applichi solo ai software, ma a tutta la formazione scolastica, che non punta a mettere i discenti in condizioni da porre domande, ma solo di trovare risposte a problemi di dubbia utilità. Ed è naturale che i software didattici (adaptive) non facciano che replicare questo schema.