r/italy Aiutante Conduttore Jan 08 '19

/r/italy Caffè Italia * 08/01/19

Aò Professore, il solito?

19 Upvotes

730 comments sorted by

View all comments

7

u/NoNameOverlord Pandoro Jan 08 '19

Avete presente l'esperimento mentale della stanza cinese di Searle?

Un tizio è messo in una stanza e senza capire nulla di Cinese riceve dei simboli e, dopo averli elaborati limitandosi a seguire delle istruzioni, produce dei simboli di risposta con una precisione tale da far credere a chi riceve i simboli di risposta che questo tizio sappia veramente il cinese, nonostante si sia limitato a seguire istruzioni.

Sarà anche un esperimento mentale, ma com'è che nessuno ha mai provato a riprodurlo? Non mi sembra abbia problemi etici o sia di difficile realizzazione, e riprodurlo potrebbe forse chiarire se il tizio nella stanza finisca per sapere il cinese o meno

7

u/[deleted] Jan 08 '19 edited Jan 13 '19

[deleted]

0

u/NoNameOverlord Pandoro Jan 08 '19

Eh, lo so che è un esperimento mentale, però appunto detto così si può ridurre quasi a "l'opinione di Searle". Il che andrebbe bene fosse qualcosa di più astratto, ma essendo un'ipotesi potenzialmente verificabile, non vedo per quale motivo si sia rimasti al livello dell'opinione. Cioè, se dice "un'intelligenza artificiale forte non può esistere così perché allo stesso modo se un umano si comportasse così allora non comprenderebbe" ritengo abbia senso vedere se la sua premessa sia corretta o sbagliata da principio, e cioè vedere se un umano sia in grado di comprendere o, come dice lui, no

3

u/simoneb_ Earth Jan 08 '19

La mia interpretazione della faccenda è che il paradosso sta proprio nella realizzazione pratica. Di fatto il modo più semplice di realizzare la "stanza" probabilmente sarebbe di insegnare il cinese a qualcuno. La domanda è se sarebbe possibile anche senza imparare il cinese. Per esempio scrivendo un algoritmo che tratta, appunto, simboli non riconducibili direttamente a parole/concetti, quindi "imparare" un algoritmo che di fatto non corrisponda a imparare il cinese.

La mia possibile soluzione è che sta tutto in cosa voglia dire "imparare". Nel 2018 ci sono svariati tool che "parlano" in modo convincente, tipo cleverbot, ma hanno "imparato" l'inglese? Un programma che applica il teorema di pitagora ha "imparato" il teorema di pitagora?

2

u/[deleted] Jan 08 '19

Penso non hai capito l'esperimento. L'umano deve esseguire gli stessi passi del computer ed elaborare cose fuori in output tali da far credere che lui capisca il cinese. Cosa di fatti non vera lui esegue solo istruzioni meccaniche come farebbe un computer, da cui la critica all'intelligenza artificiale forte cioè illudere un umano di capire qualcosa non vuol dire effettivamente capirla, oppure in altri termini, il computer anche se da l'illusione di capire in realtà non capisce ed esegue solo istruzioni in modo meccanico. Fare l'esperimento dal vivo è una perdita di tempo che non dimostrerebbe nulla

3

u/simoneb_ Earth Jan 08 '19

È quello che ho scritto.

"imparare" un algoritmo che di fatto non corrisponda a imparare il cinese.

Farlo dal vivo ci permetterebbe, immagino, di capire se davvero si potrebbe fare.

Ad esempio metti che io ti mando il messaggio "ABC" (o una qualsiasi sequenza di simboli inintelleggibile). Tu consulti l'algoritmo il quale dice che ad "ABC" devi rispondere "DEF" se ti senti bene, o "GHI" se non ti senti tanto bene. Potresti intuire che "ABC" voglia dire grosso modo "come stai", quindi di fatto staresti imparando il cinese (o se preferisci, una macchina che esegue l'algoritmo sta imparando il cinese)1. Questo non vuole necessariamente dire che avremo skynet, lo vedo più come una ridefinizione(?) di cosa significhi "imparare".

1 seppure con poca capacità di generalizzare. Ma d'altronde, neanche un umano con A1 di cinese è in grado di condurre qualsiasi conversazione, eppure diciamo ugualmente che "sta imparando" la lingua.

0

u/[deleted] Jan 08 '19

Tu consulti l'algoritmo il quale dice che ad "ABC" devi rispondere "DEF" se ti senti bene, o "GHI" se non ti senti tanto bene.

Questo algoritmo non esiste. Devi astrarre un po' di più. Copio alcune parti dell'esperimento:

In altre parole, il computer prenderebbe dei simboli cinesi in ingresso, eseguirebbe un programma e produrrebbe altri simboli cinesi in uscita.

egli si immagina in una piccola stanza (la stanza cinese) con un libro contenente la versione in inglese del programma utilizzato dal computer e carta e penna in abbondanza. Searle potrebbe ricevere scritte in cinese attraverso una finestra di ingresso, elaborarle seguendo le istruzioni del programma

Ora capirai bene che un programma che risponde X se sta bene o Y se sta male non esiste. Quindi non può essere usato dal soggetti dell'esperimento per ingannare l'ascoltatore. (Sarebbe imbrogliare il presupposto è che nessuno gli spiega nulla e che lui non sa nulla)

2

u/simoneb_ Earth Jan 08 '19

Mi sembra irrilevante il fatto che un programma non possa "sentirsi" bene o male. Potrebbe rispondere sempre "bene", o rispondere "bene" se qualche parametro è in qualche range, eccetera. In ogni caso ti ripropongo la domanda con un altro esempio: mettiamo che l'algoritmo dica che al messaggio "LMN" si risponde sempre "OPQ". Ci verrebbe da pensare che questo non sia molto utile ai fini di imparare il linguaggio. Ma se ti spiego che "LMN" vuol dire "grazie" e "OPQ" vuol dire "prego", fa davvero differenza? Perchè? Serve a qualcosa sapere cosa vogliono dire grazie e prego ai fini di "imparare" a comunicare nel linguaggio? Oppure serve a imparare la buona educazione, che però è una cosa diversa da imparare la lingua? Se la risposta è sì, forse dovremmo ridefinire (un'altra volta) "imparare" e aggiungerci che è richiesto saper mettere i concetti (tipo "grazie") nel contesto (tipo la buona educazione) che potenzialmente è un ambito differente. In ogni caso, questo è un requisito aggiuntivo del nostro programma (sapersi comportare in modo formale o informale ad esempio), non prova che il programma sia impossibile. Torniamo al punto di prima dove il programma sceglie se rispondere "OPQ" oppure, in un contesto informale, "RST" (che potrebbe significare "fottiti"), in pratica abbiamo aggiunto un altro branch.

Forse la conclusione di questo lungo pippone è che imparare è un processo infinito. Se ti dicono che a "grazie (in cinese)" si risponde "prego (in cinese)" hai imparato il cinese, seppure a livello molto base, e questo lo può imparare anche un computer. Con l'esperienza aggiungerai altre opzioni, gli umani in questo sono più bravi essendo continuamente bombardati di informazioni.

0

u/[deleted] Jan 08 '19

irrilevante il fatto che un programma non possa "sentirsi" bene o male

Invece è rilevante, un programma che ti risponde "Si" o "No" non capisce davvero cosa ti sta dicendo

Ma se ti spiego che "LMN" vuol dire "grazie" e "OPQ" vuol dire "prego", fa davvero differenza?

Si, mi stai insegnando la lingua, oltre ad essere contro le ipotesi dell'esperimento è una cosa che non posso fare con un computer.

Oppure serve a imparare la buona educazione

Mi prendi per il culo? :P

Se la risposta è sì, forse dovremmo ridefinire (un'altra volta) "imparare" e aggiungerci che è richiesto saper mettere i concetti (tipo "grazie") nel contesto (tipo la buona educazione) che potenzialmente è un ambito differente. In ogni caso, questo è un requisito aggiuntivo del nostro programma (sapersi comportare in modo formale o informale ad esempio), non prova che il programma sia impossibile.

È tutto magari giustissimo ma non c'entra nulla con l'esperimento che tu continui a non capire. È solo un argomento a favore dell'intelligenza artificiale debole, non si afferma mai che il programma è impossibile e l'educazione e il livello di formalità del discorso sono abbondantemente fuori dal contesto.

in pratica abbiamo aggiunto un altro branch.

Va beh mi prendi per culo :D

1

u/[deleted] Jan 08 '19

A che servirebbe metterlo in pratica scusa?

0

u/NoNameOverlord Pandoro Jan 08 '19

Perché tuttora è oggetto di discussione, nonostante il parere generale sembri più contro Searle che altro. Metterlo in pratica penso potrebbe rimuovere i dubbi rimanenti e magari fornire qualche conoscenza in più su linguaggio e mente umana

2

u/[deleted] Jan 08 '19

Non serve metterlo in pratica l'esito è ovvio. È solo un argomento contro l'intelligenza artificiale forte. Che ti aspetti alla fine dell'esperimento?

1

u/NoNameOverlord Pandoro Jan 08 '19

Al termine potresti avere una persona che parla cinese senza problemi, al che sarebbe privo di senso dire che il cinese non lo capisce e non lo ha imparato. L'argomento contro l'intelligenza forte cadrebbe perché la persona potrebbe dimostrare di non limitarsi più a seguire regole meccanicamente senza capire nulla

2

u/[deleted] Jan 08 '19 edited Jan 08 '19

Ma no. Imparare una lingua richiede anni. Tu prendi un persona che non sa nulla di cinese. Riceve in input dei disegnini che per lui sono scarabocchi. Continuando a non sapere nulla esegue istruzioni meccaniche come una scimmia per produrre delle cose che per lui continuano ad essere scarabocchi come output. Questo si protrae per il tempo necessario ad illudere un umano che dentro la stanza ci sia un qualcosa che di fatto sappia parlare cinese. L'ipotesi che l'umano dell'esperimento possa imparare il cinese non è mai stata presa in considerazione da nessuno che io sappia

2

u/NoNameOverlord Pandoro Jan 08 '19

Appunto, una volta che ha interiorizzato le regole e quindi non c'è bisogno della stanza (ci volessero anche anni), come si può dire che non sappia parlare cinese?

2

u/[deleted] Jan 08 '19

Ci sono svariate osservazioni poco importanti che posso fare: la pronuncia, le sillabe (è un alfabeto non fonetico ma va beh), da dove desume il significato della prima parola che impara, come fa a capire la coniugazione dei verbi .

Una cosa di importanza media: dopo 10 anni non è l'esperimento di cui stiamo parlando, devi convincere una persona dall'altra parte che parli bene il cinese.

La cosa più importante e che secondo me ti convince di meno: nessuno mette in dubbio che dopo anni l'uomo impara la lingua. Ma il computer dopo 10 anni si ritrova ad eseguire lo stesso programma dell'esperimento. Anche se è roba di deep learning avanzato alla fine stiamo parlando di parametri che si aggiustano e settano in base a quanto gli umani o una condizione di vittoria ben definita dicono "sta facendo bene" o "sta scazzando". Non c'entra nulla con l'apprendimento umano (questa cosa per te magari è già ovvia ma la scrivo lo stesso a costo di apparire pedante per evitare futura confusione)

1

u/NoNameOverlord Pandoro Jan 08 '19

la pronuncia, le sillabe (è un alfabeto non fonetico ma va beh)

Vero, ma questa è solo una parte del linguaggio. Tipo ad esempio il tizio potrebbe lo stesso avere una conversazione naturalissima in cinese tramite chat.

da dove desume il significato della prima parola che impara, come fa a capire la coniugazione dei verbi .

Forse, infatti, però mi sembra poco probabile che non si possa dedurre nulla di ciò dalle regole che si seguono. Per comunicare correttamente, cioè fornire l'output giusto, i verbi li manipoli, e lo si fa tramite regole da seguire. Raccogliendole tutte, forse la persona potrebbe essere in grado di comprendere la coniugazione generale dei verbi

dopo 10 anni non è l'esperimento di cui stiamo parlando, devi convincere una persona dall'altra parte che parli bene il cinese.

Verissimo, è diverso dalle premesse iniziali. Però Searle la imposta come "non è così che si impara il linguaggio. Potrà anche passare il test di Turing, ma non imparerà mai la lingua", ed è questa parte temporale che secondo me è importante per valutare l'operato di un'intelligenza.

una condizione di vittoria ben definita dicono "sta facendo bene" o "sta scazzando". Non c'entra nulla con l'apprendimento umano

Eeeeh, pure qui la faccenda è molto meno definita di quanto non sembri. Per quanto io stesso non la pensi in questo modo, ci sarebbero diverse correnti in psicologia che vedono l'apprendimento su per giù proprio in quel modo (tipo comportamentismo)

Cioè, tutto ciò che dici mi sembra sensato indubbiamente, ma allo stesso tempo mi sembrano teorie non a prova di bomba che potrebbero beneficiare di eventuali conferme, visto che alla fine si tratta di cercare di insegnare una lingua tramite condizioni speciali, quindi non è qualcosa di così complesso da testare per vedere se funziona o meno

la scrivo lo stesso a costo di apparire pedante

Figurati, qui stiamo solo commentando un docciapensiero, non ti preoccupare

1

u/[deleted] Jan 08 '19

Uhmmm...

1

u/TURBINEFABRIK74 Campione ineluttabile 22-23 FantaReddit Jan 08 '19

Se ci pensi è così che insegni a parlare ad un bambino:

Tiri fuori pupazzo mucca (il simbolo) e gli dici : " mucca". E così hai la tua risposta

Oppure ancora più semplice... Ti scotti col fuoco, come risposta scappi dal fuoco.

O ancora, a forza di vedere roba sottotitolata impari le parole

Mi meraviglio ci si facciano studi su sta roba

Io per esperienza personale avevo imparato a riprodurre i simboli coreani di grande, medio, piccolo, e tante altre cosette che poi ho rimosso ( pure un pelo di portoghese )

3

u/[deleted] Jan 08 '19

Tiri fuori pupazzo mucca (il simbolo) e gli dici : " mucca".

In questo caso però nessuno spiega niente al soggetto dell'esperimento!

0

u/NoNameOverlord Pandoro Jan 08 '19

E' ciò che penso pure io, ma c'è che dice che in questo modo della stanza non si impara la semantica, e perciò non c'è vera conoscenza della lingua

1

u/TantissimaEuropa Jan 08 '19

Perchè riprodurlo è assolutamente inutile

2

u/NoNameOverlord Pandoro Jan 08 '19

Beh, dai, dovresti spiegare un pizzico perché la pensi così, un po' come hanno fatto altri utenti

1

u/TantissimaEuropa Jan 08 '19

Concordo con emoscambio