Intelligente, intelligente… fai presto a dire. C’è intelligenza e intelligenza. Non servono le mille intelligenze di Gardner, ma diciamo almeno che le intelligenze si possono distribuire in una gerarchia, come quelle angeliche. Per esempio:
- Agency (agentività?) sarebbe il livello più basso, quello per cui X fa un’azione che è oggettivamente intelligente (o meglio che sarebbe giudicata intelligente se l’avesse fatta un umano) ma non lo sa.
- Intelligenza sarebbe il livello in cui invece X davvero pensa.
Turing sembra aver criticato questa differenza. Il suo test si fonda proprio sul fatto che noi definiamo intelligente qualcuno che si comporta come noi. Se non siamo in grado di distinguerlo, (per noi) è intelligente. L’ho sempre trovato piuttosto umoristico. Chissà se a Turing era venuto in mente pensando al Giocatore di Scacchi di Von Kempelen, insomma all’inganno. Tra l’altro, se il giudice fosse un bambino, o un adulto di un popolo dell’Amazzonia, i risultati sarebbero ovviamente diversi (nota marginale: il test di Turing viene alla ribalta oggi con i prompt, che sembrano proprio essere stati pensati avendo in mente quella roba lì. La lentezza della telescrivente, persino lo schema di colori. C’è una quota di gioco, di “facciamo finta che io ero”).
Ammesso pure che invece abbia senso distinguere tra 1 e 2, potremmo dividere l’intelligenza “vera” in:
- 2.1 intelligenza naturale: capacità di usare il minimo di risorse per ottenere il risultato voluto, per soddisfare un bisogno.
- 2.2 intelligenza razionale: capacità di risolvere problemi formulati da qualcun altro seguendo una strategia
- 2.3 consapevolezza o meta-intelligenza: capacità di accorgersi che non va e cambiare la strategia di soluzione di problemi
- 2.4 autoconsapevolezza: sapere di essere quello che risolve i problemi e sceglie le strategie
Naturalmente le intelligenze artificiali evolvono; stiamo per assistere, secondo Kurzweil per dirne uno, al passaggio alla fase 3, che sarebbe quella in cui l’IA acquisisce volontà (ovvero consapevolezza dei propri bisogni) e diventa soggetto storico: preme i bottoni, per così dire: compra , vende, vota, sciopera, dichiara guerra.
Ora vediamo a che punto siamo.
1. Attualmente, i servizi basati su LLM sono, secondo Floridi, al livello 1.
2.1 Forse sarebbe corretto collocare i servizi basati su machine learning almeno al livello 2.1, insieme agli alveari e i formicai. Perché certo, non siamo noi i soli esseri intelligenti sul pianeta Terra. Fuori, non saprei. Ma poi tutti i software sono intelligenti in questo senso: servono a fare cose che richiederebbero molto più consumo di ossigeno e zuccheri se fossero fatte da noi.
2.2 A questo livello i software ci stanno da tempo. Un banale solutore di equazioni non si nega a nessun foglio di calcolo. In generale, qualsiasi software può essere descritto come un insieme di algoritmi, cioè appunto strategie di soluzione.
2.3 Tutto sommato, anche 2.3 è già qui. Abbiamo gli esempi classici di intelligenza artificiale degli anni del miraggio, del “ci siamo quasi”. Ma insomma algoritmi capaci di arrampicarsi sulle colline (hill climbing) ce ne sono da tempo. Certo, le strategie devono essere disponibili nel cassetto delle strategie; e come ci sono andate a finire, o come sono ordinate, è un’altra faccenda. Se sappiamo accumulare esperienza (fondamentalmente verbale) per tradurla in competenza (linguistica), non sappiamo ancora come accumulare esperienza per produrre schemi di competenza riusabili. Magari sappiamo come farlo ma in domini moooolto ristretti, come i giochi da tavolo. Che sono sempre stati presentati come l’Everest delle difficoltà, ma paragonati al problema di allacciarsi le scarpe o cercare i fiori giusti in un prato sono banalità. Ci sono solo 9 tipi di oggetti, e ognuno ha 1 o 2 tipi di mosse lecite. L’orizzonte delle possibilità è racchiuso in 64 caselle.
2.4 Poi c’è questo livello in cui si gioca la nostra identità specifica: non è saper fare, ma sapere di essere. Non è un capacità, o se lo è non sappiamo bene come definirla. E’ una capacità linguistica? Capacità di parlare di se stessi usando “io”? Bah, ci vuole poco a inserire questa regola in un software che dialoga, ma non basta.
Capacità di riconoscere l’altro come differente ma simile? Cioè basta dire “ciao, Stefano, dimmi pure” ed è fatta? Lo faceva anche Eliza nel 1966 ed era una presa in giro.
Oppure si tira in ballo l’etica? Credo che questo peggiorerebbe solo le cose: non siamo particolarmente avanti nel definire le “competenze etiche” in termini operativi. Finiamo per ricadere nel “non fare agli altri…”, o “fai agli altri…”, o “pensa la tua massima come legge”, insomma cose piuttosto vaghe.
E’ qualcosa che ha a che fare con l’introspezione? Male, così ognuno può parlare solo della proprio autoconsapevolezza.
Non è una capacità, ma una proprietà della mente? E cioè? Una forma, una tonalità, una vibrazione? Aiuto.
O peggio, una parte, una sostanza speciale, come l’anima? No, forse non è il caso di andare da questa parte.
E’ una configurazione dell’intero organismo, non solo della mente? Certo se dipende dal corpo biologico su questa strada – al momento – i software sono messi maluccio.
Ora magari a qualcuno – oltre a Gino Roncaglia – sono venuti in mente i giochi linguistici delle Ricerche filosofiche di Wittgentstein. Qualcuno si sveglia la mattina e racconta una storia. Gli insegnano a premettere l’espressione “Stanotte ho sognato che…”. Non c’è bisogno di altro per spiegare il lavoro dell’inconscio, dice il viennese.
Magari la nostra autoconsapevolezza è un gioco linguistico, e allora pure quella del software lo può essere. Una volta che si mette di mezzo il linguaggio, non ce n’è per nessuno. Semplicemente perché noi non possiamo uscire dal linguaggio.
Insomma tutta l’intelligenza, anche la nostra, sarebbe una forma di agency linguistica.
O forse no, ma insomma siamo un po’ lontani dal capire di cosa stiamo parlando qui. Non sappiamo dire cosa significa essere autoconsapevoli, come potremmo riconoscere una macchina che lo fosse?
Tutto sommato è rassicurante. A me questo ruolo di animale razionale è sempre andato troppo stretto.