Avete presente l'esperimento mentale della stanza cinese di Searle?
Un tizio è messo in una stanza e senza capire nulla di Cinese riceve dei simboli e, dopo averli elaborati limitandosi a seguire delle istruzioni, produce dei simboli di risposta con una precisione tale da far credere a chi riceve i simboli di risposta che questo tizio sappia veramente il cinese, nonostante si sia limitato a seguire istruzioni.
Sarà anche un esperimento mentale, ma com'è che nessuno ha mai provato a riprodurlo? Non mi sembra abbia problemi etici o sia di difficile realizzazione, e riprodurlo potrebbe forse chiarire se il tizio nella stanza finisca per sapere il cinese o meno
Eh, lo so che è un esperimento mentale, però appunto detto così si può ridurre quasi a "l'opinione di Searle". Il che andrebbe bene fosse qualcosa di più astratto, ma essendo un'ipotesi potenzialmente verificabile, non vedo per quale motivo si sia rimasti al livello dell'opinione. Cioè, se dice "un'intelligenza artificiale forte non può esistere così perché allo stesso modo se un umano si comportasse così allora non comprenderebbe" ritengo abbia senso vedere se la sua premessa sia corretta o sbagliata da principio, e cioè vedere se un umano sia in grado di comprendere o, come dice lui, no
La mia interpretazione della faccenda è che il paradosso sta proprio nella realizzazione pratica. Di fatto il modo più semplice di realizzare la "stanza" probabilmente sarebbe di insegnare il cinese a qualcuno. La domanda è se sarebbe possibile anche senza imparare il cinese. Per esempio scrivendo un algoritmo che tratta, appunto, simboli non riconducibili direttamente a parole/concetti, quindi "imparare" un algoritmo che di fatto non corrisponda a imparare il cinese.
La mia possibile soluzione è che sta tutto in cosa voglia dire "imparare". Nel 2018 ci sono svariati tool che "parlano" in modo convincente, tipo cleverbot, ma hanno "imparato" l'inglese? Un programma che applica il teorema di pitagora ha "imparato" il teorema di pitagora?
Penso non hai capito l'esperimento. L'umano deve esseguire gli stessi passi del computer ed elaborare cose fuori in output tali da far credere che lui capisca il cinese. Cosa di fatti non vera lui esegue solo istruzioni meccaniche come farebbe un computer, da cui la critica all'intelligenza artificiale forte cioè illudere un umano di capire qualcosa non vuol dire effettivamente capirla, oppure in altri termini, il computer anche se da l'illusione di capire in realtà non capisce ed esegue solo istruzioni in modo meccanico. Fare l'esperimento dal vivo è una perdita di tempo che non dimostrerebbe nulla
"imparare" un algoritmo che di fatto non corrisponda a imparare il cinese.
Farlo dal vivo ci permetterebbe, immagino, di capire se davvero si potrebbe fare.
Ad esempio metti che io ti mando il messaggio "ABC" (o una qualsiasi sequenza di simboli inintelleggibile). Tu consulti l'algoritmo il quale dice che ad "ABC" devi rispondere "DEF" se ti senti bene, o "GHI" se non ti senti tanto bene. Potresti intuire che "ABC" voglia dire grosso modo "come stai", quindi di fatto staresti imparando il cinese (o se preferisci, una macchina che esegue l'algoritmo sta imparando il cinese)1. Questo non vuole necessariamente dire che avremo skynet, lo vedo più come una ridefinizione(?) di cosa significhi "imparare".
1 seppure con poca capacità di generalizzare. Ma d'altronde, neanche un umano con A1 di cinese è in grado di condurre qualsiasi conversazione, eppure diciamo ugualmente che "sta imparando" la lingua.
Tu consulti l'algoritmo il quale dice che ad "ABC" devi rispondere "DEF" se ti senti bene, o "GHI" se non ti senti tanto bene.
Questo algoritmo non esiste. Devi astrarre un po' di più.
Copio alcune parti dell'esperimento:
In altre parole, il computer prenderebbe dei simboli cinesi in ingresso, eseguirebbe un programma e produrrebbe altri simboli cinesi in uscita.
egli si immagina in una piccola stanza (la stanza cinese) con un libro contenente la versione in inglese del programma utilizzato dal computer e carta e penna in abbondanza. Searle potrebbe ricevere scritte in cinese attraverso una finestra di ingresso, elaborarle seguendo le istruzioni del programma
Ora capirai bene che un programma che risponde X se sta bene o Y se sta male non esiste. Quindi non può essere usato dal soggetti dell'esperimento per ingannare l'ascoltatore. (Sarebbe imbrogliare il presupposto è che nessuno gli spiega nulla e che lui non sa nulla)
Mi sembra irrilevante il fatto che un programma non possa "sentirsi" bene o male. Potrebbe rispondere sempre "bene", o rispondere "bene" se qualche parametro è in qualche range, eccetera. In ogni caso ti ripropongo la domanda con un altro esempio: mettiamo che l'algoritmo dica che al messaggio "LMN" si risponde sempre "OPQ". Ci verrebbe da pensare che questo non sia molto utile ai fini di imparare il linguaggio. Ma se ti spiego che "LMN" vuol dire "grazie" e "OPQ" vuol dire "prego", fa davvero differenza? Perchè? Serve a qualcosa sapere cosa vogliono dire grazie e prego ai fini di "imparare" a comunicare nel linguaggio? Oppure serve a imparare la buona educazione, che però è una cosa diversa da imparare la lingua? Se la risposta è sì, forse dovremmo ridefinire (un'altra volta) "imparare" e aggiungerci che è richiesto saper mettere i concetti (tipo "grazie") nel contesto (tipo la buona educazione) che potenzialmente è un ambito differente. In ogni caso, questo è un requisito aggiuntivo del nostro programma (sapersi comportare in modo formale o informale ad esempio), non prova che il programma sia impossibile. Torniamo al punto di prima dove il programma sceglie se rispondere "OPQ" oppure, in un contesto informale, "RST" (che potrebbe significare "fottiti"), in pratica abbiamo aggiunto un altro branch.
Forse la conclusione di questo lungo pippone è che imparare è un processo infinito. Se ti dicono che a "grazie (in cinese)" si risponde "prego (in cinese)" hai imparato il cinese, seppure a livello molto base, e questo lo può imparare anche un computer. Con l'esperienza aggiungerai altre opzioni, gli umani in questo sono più bravi essendo continuamente bombardati di informazioni.
irrilevante il fatto che un programma non possa "sentirsi" bene o male
Invece è rilevante, un programma che ti risponde "Si" o "No" non capisce davvero cosa ti sta dicendo
Ma se ti spiego che "LMN" vuol dire "grazie" e "OPQ" vuol dire "prego", fa davvero differenza?
Si, mi stai insegnando la lingua, oltre ad essere contro le ipotesi dell'esperimento è una cosa che non posso fare con un computer.
Oppure serve a imparare la buona educazione
Mi prendi per il culo? :P
Se la risposta è sì, forse dovremmo ridefinire (un'altra volta) "imparare" e aggiungerci che è richiesto saper mettere i concetti (tipo "grazie") nel contesto (tipo la buona educazione) che potenzialmente è un ambito differente. In ogni caso, questo è un requisito aggiuntivo del nostro programma (sapersi comportare in modo formale o informale ad esempio), non prova che il programma sia impossibile.
È tutto magari giustissimo ma non c'entra nulla con l'esperimento che tu continui a non capire. È solo un argomento a favore dell'intelligenza artificiale debole, non si afferma mai che il programma è impossibile e l'educazione e il livello di formalità del discorso sono abbondantemente fuori dal contesto.
Perché tuttora è oggetto di discussione, nonostante il parere generale sembri più contro Searle che altro. Metterlo in pratica penso potrebbe rimuovere i dubbi rimanenti e magari fornire qualche conoscenza in più su linguaggio e mente umana
Al termine potresti avere una persona che parla cinese senza problemi, al che sarebbe privo di senso dire che il cinese non lo capisce e non lo ha imparato. L'argomento contro l'intelligenza forte cadrebbe perché la persona potrebbe dimostrare di non limitarsi più a seguire regole meccanicamente senza capire nulla
Ma no. Imparare una lingua richiede anni.
Tu prendi un persona che non sa nulla di cinese. Riceve in input dei disegnini che per lui sono scarabocchi. Continuando a non sapere nulla esegue istruzioni meccaniche come una scimmia per produrre delle cose che per lui continuano ad essere scarabocchi come output. Questo si protrae per il tempo necessario ad illudere un umano che dentro la stanza ci sia un qualcosa che di fatto sappia parlare cinese. L'ipotesi che l'umano dell'esperimento possa imparare il cinese non è mai stata presa in considerazione da nessuno che io sappia
Appunto, una volta che ha interiorizzato le regole e quindi non c'è bisogno della stanza (ci volessero anche anni), come si può dire che non sappia parlare cinese?
Ci sono svariate osservazioni poco importanti che posso fare: la pronuncia, le sillabe (è un alfabeto non fonetico ma va beh), da dove desume il significato della prima parola che impara, come fa a capire la coniugazione dei verbi .
Una cosa di importanza media: dopo 10 anni non è l'esperimento di cui stiamo parlando, devi convincere una persona dall'altra parte che parli bene il cinese.
La cosa più importante e che secondo me ti convince di meno: nessuno mette in dubbio che dopo anni l'uomo impara la lingua. Ma il computer dopo 10 anni si ritrova ad eseguire lo stesso programma dell'esperimento. Anche se è roba di deep learning avanzato alla fine stiamo parlando di parametri che si aggiustano e settano in base a quanto gli umani o una condizione di vittoria ben definita dicono "sta facendo bene" o "sta scazzando". Non c'entra nulla con l'apprendimento umano (questa cosa per te magari è già ovvia ma la scrivo lo stesso a costo di apparire pedante per evitare futura confusione)
la pronuncia, le sillabe (è un alfabeto non fonetico ma va beh)
Vero, ma questa è solo una parte del linguaggio. Tipo ad esempio il tizio potrebbe lo stesso avere una conversazione naturalissima in cinese tramite chat.
da dove desume il significato della prima parola che impara, come fa a capire la coniugazione dei verbi .
Forse, infatti, però mi sembra poco probabile che non si possa dedurre nulla di ciò dalle regole che si seguono. Per comunicare correttamente, cioè fornire l'output giusto, i verbi li manipoli, e lo si fa tramite regole da seguire. Raccogliendole tutte, forse la persona potrebbe essere in grado di comprendere la coniugazione generale dei verbi
dopo 10 anni non è l'esperimento di cui stiamo parlando, devi convincere una persona dall'altra parte che parli bene il cinese.
Verissimo, è diverso dalle premesse iniziali. Però Searle la imposta come "non è così che si impara il linguaggio. Potrà anche passare il test di Turing, ma non imparerà mai la lingua", ed è questa parte temporale che secondo me è importante per valutare l'operato di un'intelligenza.
una condizione di vittoria ben definita dicono "sta facendo bene" o "sta scazzando". Non c'entra nulla con l'apprendimento umano
Eeeeh, pure qui la faccenda è molto meno definita di quanto non sembri. Per quanto io stesso non la pensi in questo modo, ci sarebbero diverse correnti in psicologia che vedono l'apprendimento su per giù proprio in quel modo (tipo comportamentismo)
Cioè, tutto ciò che dici mi sembra sensato indubbiamente, ma allo stesso tempo mi sembrano teorie non a prova di bomba che potrebbero beneficiare di eventuali conferme, visto che alla fine si tratta di cercare di insegnare una lingua tramite condizioni speciali, quindi non è qualcosa di così complesso da testare per vedere se funziona o meno
la scrivo lo stesso a costo di apparire pedante
Figurati, qui stiamo solo commentando un docciapensiero, non ti preoccupare
Se ci pensi è così che insegni a parlare ad un bambino:
Tiri fuori pupazzo mucca (il simbolo) e gli dici : " mucca". E così hai la tua risposta
Oppure ancora più semplice... Ti scotti col fuoco, come risposta scappi dal fuoco.
O ancora, a forza di vedere roba sottotitolata impari le parole
Mi meraviglio ci si facciano studi su sta roba
Io per esperienza personale avevo imparato a riprodurre i simboli coreani di grande, medio, piccolo, e tante altre cosette che poi ho rimosso ( pure un pelo di portoghese )
7
u/NoNameOverlord Pandoro Jan 08 '19
Avete presente l'esperimento mentale della stanza cinese di Searle?
Un tizio è messo in una stanza e senza capire nulla di Cinese riceve dei simboli e, dopo averli elaborati limitandosi a seguire delle istruzioni, produce dei simboli di risposta con una precisione tale da far credere a chi riceve i simboli di risposta che questo tizio sappia veramente il cinese, nonostante si sia limitato a seguire istruzioni.
Sarà anche un esperimento mentale, ma com'è che nessuno ha mai provato a riprodurlo? Non mi sembra abbia problemi etici o sia di difficile realizzazione, e riprodurlo potrebbe forse chiarire se il tizio nella stanza finisca per sapere il cinese o meno