JOHN R. SEARLE
Az elme, az agy és a programok világa

(Minds, brains, and programs. Behavioral and Brain Sciences, 1980, 3, 417-424)
 



 A kínai szoba gondolatkísérlete
 A rendszerelvû válasz
 A robot-válasz
 Az agyszimulátor-válasz
 Kombinációs válasz
 Más elmék-válasz
 Sok ház-válasz


Az emberi megismerõképesség számítógépes szimulációjának megközelítései: Példa: a történetmegértõ képesség szimulációja, azaz a gépnek olyan kérdésekre is tudni kell válaszolnia, amely kérdésekre nincs explicit információ a történetben.( éttermi eseteknél: Megette-e az ételt a vendég?) Ekkor a gépnek rendelkeznie kell az éttermekre vonatkozó információk valamilyen reprezentációjával. Az MI állítása szerint a gép nemcsak szimulál egy emberi képességet, hanem  Mi lenne, ha tényleg így mûködne az emberi elme?
 
A kínai szoba
  • egy szobába zárt kínaiul nem tudó személy (számítógép)
  • 3 kínai szimbólumsorozat (történet, kérdések, válaszok)
  • a a kérdéseket és válaszokat a történet alapján összekötõ szabályok (program)
 Ha elég jók a szabályok, akkor egy szobán kívüli kínainak úgy tûnik, hogy kérdéseire egy kínaitól kap választ. Ennek ellenére a szobában levõ személy semmit nem ért a kérdésekbõl, pusztán formális szimbólummanipulációt végez a kínai írásjelekkel. 
A formális elemeken végzett komputációs mûveletek nem magyarázzák az emberi megértést.
 
Válaszok, ellenvetések Megjegyzések
A rendszerelvû válasz: a személy önmagában nem érti meg a történetet, hanem része egy nagyobb megértõ rendszernek. A szimbólumsorozatokkal, szabályokkal az összekötést végzõ személlyel együtt alkotott rendszer már képes a megértésre. 
  • ha a személy megtanulja a szabályokat, s a történeteket, akkor az érvelés erejét veszti
  • nem elég az input-output párok pontos egyezése
  • szükség van a mentális szervezõdések elkülönítésére a nem mentálisokétól
A robot-válasz: Helyezzük a számítógépet egy olyan robot belsejébe, amely teljesen úgy viselkedik mint egy ember.  a perceptuális és motoros képességek ezen hozzáadása semmit nem változtat a helyzeten, a robot belsejében levõ számítógép ugyanúgy csak formális mûveleteket végez
Az agyszimulátor-válasz: A számítógép a szöveget megértõ kínai agyának neuronjainak tüzelését szimulálja.
  • Mi lesz a funkcionalizmussal?
  • az agy szerkezetének formális modellezése még mindig nem ad magyarázatot az intencionalitás létrejöttére
A kombinációs-válasz: az elõbbi három válasz együtt már elegendõ magyarázatot jelent a megértésre. Emberforma robot, melynek fejében egy agyszerû számítógép van. ez a hipotézis nem érinti az MI fõ tételét, miszerint a gondolkodás formális szimbóliummanipuláció
Más elmék-válasz: Honnan tudjuk, hogy más emberek megértenek? Lehet, hogy kognitív állapotokat csak tulajdonítjuk nekik. A számítógép is átmegy a viselkedési teszteken, így azoknak is tulajdoníthatnánk mentális állapotokat. A fõ kérdés az, hogy mit is tulajdonítok ilyenkor az embereknek? Ez nem lehet csupán komputációs folyamat, hiszen azt kognitív állapottál nem rendelkezõ géppel is meg lehet csinálni.
A sok-ház válasz: az érvelés csak a technika jelenlegi szintjén (analóg és digitális számítógépek) elfogadható. ha az MI azt jelenti, hogy kogníciót mesterségesen létre tudunk hozni - ami elég tág megfogalmazás - akkor az érvelés érvényét veszti, de nem is errõl szól.

Az intelligencia gépi modellálása nem lehetetlen, hiszen az emberi agy maga is egy bonyolult gép. A formális komputáció azonban nem elegendõ az intencionalitás reprodukálásához. A számítógépes szimuláció nem maga a dolog. (A szimulált vihartól nem leszünk vizesek).
Az MI feltételezi a dualitást: elme-agy, program-hardver, lélek-test.



  Vissza