Anni fa sostenevo che la valutazione (online) andava arricchita con i dati. Che raccogliere le informazioni prodotte dalle azioni dei partecipanti ad un ambiente di apprendimento (discenti e docenti) poteva fornire strumenti utili ai docenti e ai discenti – per migliorare il percorso di apprendimento, per migliorare il corso. Ma avvertivo anche che non si trattava solo del “tracking“, del tracciamento di orari di ingresso e di uscita, di contare il numero di accessi. Occorreva raccogliere dati più significativi: per esempio, i percorsi (da dove a dove), per ricostruire lo stile cognitivo dello studente, i messaggi, i contenuti prodotti, le richieste di supporto, in generale le interazioni con i colleghi. Questo ovviamente avrebbe potuto essere fatto se l’ambiente registrava ogni azione, il contesto dell’azione, i suoi contenuti, e se questi dati venivano esposti in modo tale da poter essere visualizzati, confrontati e usati per avvertire il docente di anomalie di percorso (positive: originalità, e negative: ritardo) e permettergli di agire subito, o di ristrutturare il corso per il futuro. Di sicuro sarebbe stato necessaria anche un’analisi dei testi prodotti, cercando di categorizzarli in base a parametri (oggi si parla di sentiment analysis, ma in un senso ristretto). Ma soprattutto sarebbe stata necessaria una visione d’insieme degli obbiettivi, degli indicatori. Un paio di esempi modesti di lavori condotti in quest’ottica, con le tecnologie dell’epoca: questa presentazione (analisi_forum) che descrive l’analisi dei forum nella piattaforma Ansas (INDIRE) per i Dirigenti Scolastici nel 2006/2007 e quest’altra (strum_valutazione_2006) che descrive un possibile modello di interpretazione dei testi prodotti dai corsisti in un ambiente di apprendimento online. Cose di nessun valore ma che almeno cercavano di porre qualche questione in un periodo in cui del monitoraggio – in quanto puramente quantitativo – non interessava a nessuno.
Sono passati dieci anni, e il termine “Learning Analytics” è diventato un mantra, adottato da progetti , da fondazioni, e a cui si dedicano ricerche e articoli divulgativi. Persino l’obsoleto SCORM (nel senso che anche chi l’ha proposto ha smesso di sostenerlo, anche se qui da noi non ce ne siamo ancora accorti) è stato sostituito dalle eXperience API che permettono di inviare informazioni sulle diverse attività di apprendimento ad un archivio esterno (LRS) secondo un vocabolario controllato per permettere analisi successive.
Non posso che esserne felice. Finalmente ci sono le risorse, economiche, tecniche e umane, per cercare di capire e migliorare i contesti di apprendimento sfruttando l’enorme quantità di dati che sono sottoprodotti dell’interazione didattica.
Quello che però sto vedendo recentemente sono tante proposte di ambienti che mettono l’accento sul termine “analytics” (a volte sinonimo di “accountability“, come qui ) ma per parlare semplicemente di tracciamento: “Know if your students are watching your videos, how many times and see the answers they give.” Piattaforme per docenti in cui è facilissimo inserire un video, poi un quiz, e voilà ecco i dati. Qui mi viene da chiedere: ma tutto quello che vuoi sapere dei tuoi studenti è quante volte accedono ad una risorsa? E per fare cosa?
Ma in effetti questo è quello che viene registrato. Poi però si scomodano i big data, il data ming, il machine learning, il cloud, per estrarre conoscenza dalle informazioni. Cioè invece di aumentare la qualità dei dati raccolti in partenza, si registrano informazioni atomiche (e banali) e poi si applicano complessi algoritmi per cercare di far emergere configurazioni significative.
Mi auguro che i prossimi passi siano invece quelli di definire meglio cosa si vuole raccogliere, di strutturare i dati in partenza, di permettere ai docenti e ai discenti di crearsi i propri strumenti di visualizzazione. Mi auguro che tutti gli esperimenti di MOOC interuniversitari adottino un approccio di questo tipo, nel rispetto della privacy e con l’obbiettivo di migliorare l’apprendimento e non di profilare gli utenti.