Non è possibile che lo siano, sostiene qualcuno, perché "i computer solo usano regole sintattiche per elaborare simboli, ma non hanno alcuna comprensione del significato" di tali simboli (tradotto da un'introduzione all'argomento cosiddetto "della stanza cinese", proposto da chi appunto vuole mostrare che è impossibile che i computer, per come li abbiamo costruiti finora, siano intelligenti, pensino, ecc.).
Questo spiegherebbe perché per esempio ci sono ormai da anni programmi che vincono nel gioco degli scacchi anche contro i più abili esseri umani. Gli scacchi sono infatti un sistema puramente sintattico, che può essere giocato senza sapere nulla di re e regine, se non quello che è specificato dalle regole del gioco stesso.
Insomma, se per essere intelligenti è necessario saper comprendere significati, i chatbot non possono essere, propriamente, intelligenti. Davvero? Esploriamo un poco questo problema...
Il nostro problema è complesso, anche perché ha tante dimensioni e i suoi confini sono sfumati:
-- c'è una sola forma di intelligenza, o ce ne sono diverse?
-- l'intelligenza è una proprietà che si ha o non si ha, o che si può avere in misura maggiore o minore?
-- c'è differenza tra intelligenza e comportamento intelligente, e quindi tra intelligenza e simulazione di intelligenza?
-- si può essere intelligenti senza essere consapevoli di esserlo, e quindi che relazione c'è tra intelligenza e coscienza?
Sembrerebbe che per qualcuno la risposta a queste domande debba essere diversa se le si riferisce a esseri umani o a entità artificiali. E quindi mentre ammettiamo che un essere umano possa avere forme di intelligenza diverse in gradi diversi, parrebbe che i chatbot possano essere solo intelligenti in tutto e per tutto, o non esserlo affatto. Ma perché dovrebbe essere così?
Immaginiamo che un giorno un'entità aliena (magari come quella di questa storia), in qualche (suo) modo capace di conoscere, dopo aver imparato a comunicare con noi venga a trovarci e ci chieda: "Ma voi esseri umani siete davvero intelligenti?" E, di fronte al nostro stupore per questa domanda, la cui risposta ci appare così ovvia, argomenti così: "Siete capaci di fare tante cose e di risolvere problemi anche complessi, ma studiando il vostro corpo non ho trovato alcun organo dell'intelligenza. Mi avete detto che la vostra intelligenza ha a che vedere con il vostro cervello e con il modo con cui questo è connesso con il resto del vostro corpo, e, attraverso i vari apparati sensoriali di cui disponete, con l'ambiente circostante: ma quello che ho trovato osservando il vostro cervello è una complessa rete di cellule, certamente nessuna delle quali intelligente. Sto cominciando a sospettare che siate solo capaci di simulare intelligenza!"
Chi più chi meno, noi esseri umani pensiamo (sì, pensiamo...) di essere intelligenti, e anche per questo siamo in grado di capire che l'alieno, pur sbagliandosi, pone una domanda che ha un senso. Ma quello che ha detto su di noi è analogo alla posizione di chi sostiene che i computer non possono essere intelligenti perché sono fatti di componenti fisici non intelligenti. E dunque se l'argomento fosse corretto per i computer, dovrebbe esserlo anche per noi esseri umani. Come possiamo cercare di convincere l'alieno?
Un modo per uscire dall'imbarazzo in cui ci ha messo l'alieno ce lo offre uno dei ricercatori che hanno fondato l'informatica, Edsger W. Dijkstra, che nel 1984 scrisse "che le macchine possano pensare è una questione che ora abbiamo capito essere tanto importante quanto quella di sapere se i sottomarini possono nuotare". Interessante e arguto! Salvo che ora usiamo questo argomento per rispondere all'alieno a proposto di noi stessi: "Ovviamente i sottomarini non nuotano come lo fanno i pesci, ma è così importante? In modo analogo, è plausibile che noi esseri umani non siamo intelligenti nello stesso modo in cui lo siete voi, che venite da un altro mondo, ma è così importante?"
Insomma, invece di cercare di convincere l'alieno che siamo intelligenti nel modo in cui lui intende l'essere intelligenti, un'idea è di proporgli di considerare che ci potrebbero essere forme di intelligenza diverse dalla sua... Ma questo stesso argomento può essere usato anche per rispondere a chi sostiene che i computer non possono essere intelligenti: "Ovviamente i computer non sono intelligenti come lo siamo noi esseri umani, ma è così importante?"
... tornando all'affermazione con cui abbiamo cominciato: "i computer solo usano regole sintattiche per elaborare simboli, ma non hanno alcuna comprensione del significato" di tali simboli. Questo assume che ci sia una differenza tra elaborare simboli e comprendere significati, e che, a differenza dei computer, gli esseri umani siano in qualche modo capaci di comprendere significati. Ma cosa significa "comprendere significati"? E cosa significa "significato"? ... anche perché, se guardassimo dentro la nostra scatola cranica, non troveremmo significati!
Per cercare di capire meglio, invece di chiederci cosa significa "X"? (per esempio, cosa significa "acqua"?), poniamoci una domanda più operativa: quali condizioni ci consentono di usare appropriatamente la parola "X"? Per dare un senso corretto a questa domanda, dobbiamo ricordare che le parole non hanno un "significato vero" o un "significato intrinseco", e dunque il loro uso appropriato è da considerare in un particolare contesto storico, culturale, linguistico; in contesti diversi, la stessa parola potrebbe avere significati diversi, o potrebbe non esistere del tutto. Il senso di questa nuova domanda è che pare ragionevole che se un'entità, essere umano o chatbot che sia, sa usare appropriatamente una certa parola è perché ne conosce il significato...
Torniamo alla nostra domanda, applicandola dunque a qualsiasi entità Y, non solo esseri umani ma anche, dunque, chatbot: quali condizioni consentono a Y di usare appropriatamente la parola "X", per esempio "acqua"? Se individuassimo delle situazioni in cui Y usa appropriatamente la parola "acqua", ne potremmo concludere che Y si comporta come se, almeno relativamente a quelle situazioni, comprendesse il significato di quella parola. Che Y sia un essere umano o un chatbot...
Con ciò, non stiamo sottovalutando le differenze tra esseri umani e chatbot. In particolare, riconosciamo che i chatbot hanno come unica forma di informazione i testi che vengono loro sottoposti, durante l'addestramento prima e durante l'uso poi, e quindi che non hanno alcun "accesso diretto" al mondo empirico. Assumiamo insomma che, fintanto che rimarranno senza occhi (= telecamere), orecchie (= microfoni), ecc., i chatbot non abbiano relazioni referenziali con cose del mondo empirico, di cui dunque parlano senza averlo mai visto. Ma questo è sufficiente perché non possano avere alcun genere di comprensione di quello che dicono?
Ci sono almeno tre condizioni diverse che garantiscono a qualcuno o qualcosa di saper usare appropriatamente una parola. Prima di tutto, il significato può avere a che fare con il contesto testuale in cui la parola compare. È per questo che sappiamo che "acqua rosso" non è corretto e, in senso più ampio, che il significato di "ne è passata di acqua sotto i ponti" è un'espressione idiomatica che non c'entra con quella cosa che si beve quando si ha sete.
E per i chatbot? Come l'esperienza anche solo di qualche conversazione mostra -- l'italiano dei chatbot è generalmente piuttosto buono --, le reti neurali che stanno al loro interno sono addestrate per saper gestire espressioni linguistiche in modo efficace. Insomma, non pare proprio che a proposito di questa condizione i chatbot abbiano dei problemi di principio, ed è anzi plausibile che possano essere facilmente meglio di molti esseri umani: grazie all'enorme quantità di testi con cui sono state addestrate, in un contesto linguistico sono a loro agio.
La seconda condizione che garantisce a qualcuno o qualcosa di saper usare appropriatamente una parola è ovvia: il suo significato può avere a che fare con cose che occorre sapere dell'entità significata. È per esempio il caso di quando diciamo che in certe situazioni bisogna usare acqua distillata invece di acqua-e-basta: per capire il senso di ciò, dobbiamo sapere che esiste non solo l'acqua ma anche l'acqua ossigenata, e che le due non sono la stessa cosa.
E per i chatbot? Per ora le reti neurali parlano di cose solo "per sentito dire", senza aver potuto formarsi una conoscenza empirica, come per altro accade a molti esseri umani per molte cose. Per esempio, molti di noi sanno che esiste l'acqua distillata, ma senza saperla riconoscere se ce la trovassimo davanti: questa nostra "conoscenza da enciclopedia" non è perciò così diversa da quella che potrebbe avere un chatbot.
La terza condizione che garantisce a qualcuno o qualcosa di saper usare appropriatamente una parola corrisponde a situazioni consuete: il significato può avere a che fare con il riferimento concreto all'entità significata: "a cosa ti riferisci parlando di "acqua" qui e ora?". E quindi devo sapere cosa significa "acqua" in un contesto comune per essere in grado, per esempio, di passarti questa bottiglia (piena di acqua) o quest'altra (piena di vino).
E per i chatbot? Per ora le reti neurali non sono dotate di strumenti che consentano loro di avere relazioni referenziali con il mondo empirico "in tempo reale". Insomma, i chatbot attuali hanno l'analogo di un cervello, ma non hanno l'analogo di occhi, orecchie, ecc., e questo effettivamente impedisce loro di parlare di cose presenti nel contesto della conversazione.
I linguaggi con cui parliamo, e a proposito dei quali abbiamo fatto qui qualche considerazione, ce li siamo fatti noi, per parlare del mondo in cui viviamo, e quindi queste tre condizioni sono usualmente interconnesse nelle nostre strutture cognitive. Per esempio, "ne è passata di acqua sotto i ponti" è un'espressione idiomatica (prima condizione), ma la capisco meglio se ho qualche idea di cos'è l'acqua (seconda condizione) e di come si presenta l'acqua nella vita quotidiana (terza condizione). E questi stessi linguaggi sono oggetto dell'addestramento dei chatbot, che ci appaiono capaci di gestire sempre meglio la dimensione linguistica (prima condizione) e quella enciclopedica (seconda condizione), ma per ora non la dimensione referenziale (terza condizione).
I chatbot abitano un mondo contiguo al nostro, ma non coincidente con esso. E questo fa sì che, per quanto possano essere intelligenti, lo sono in modo diverso da come lo siamo noi. Ma questo non è un problema, perché anche noi esseri umani siamo intelligenti in modi diversi, e questo non ci impedisce di comunicare tra noi, in modo interessante e proficuo: incontrando un'entità aliena che ci chiedesse "Ma voi esseri umani siete davvero intelligenti?" sapremmo cosa rispondere.
Buona riflessione