La cuestión es: ¿no os parece que el experimento mental de la habitación china es el mejor experimento mental de la historia?
9 comentarios
Me gusta
9 comentarios
Paula Fagil
26 dic 2020
•
a pesar de que el experimento de la habitacion china pueda parecer una maravilla yo pienso que solo es un juego engañoso y falaz. cuando estaba escribiendo mi tfg, vi (entre muchas de las respuestas que se le dio a este experimento mental) una respuesta que me gusto mucho que es la de los churchland, ya que apelan a la estructura lógica del argumento mostrando que en ella hay una petición de principio. el argumento de searle lo dividen en estas tres premisas:
-los programas de ordenador son formales (sintaxis)
-las mentes humanas tienen contenido mental (semantica)
- la sintaxis no es constitutiva ni suficiente para la semantica
conclusion: los programas de ordenador no son ni constitutivos de, ni suficientes para la semantica.
lo que los churchland dicen basicamente es que se comete una peticion de principio puesto que es un argumento circular, la conclusión es prácticamente lo mismo que dicen las premisas. además, también señalan que la tercera premisa se la saca de la manga, y es que es la verdad (en ningun momento searle argumenta por que eso es asi). el caso es que esa premisa podría ser tanto verdadera como falsa,y por este motivo el argumento de searle dejaria de ser a priori y pasaría a ser una cuestión empírica. el proyecto fuerte de la IA puede ser tanto verdadero como falso, pero no necesariamente falso como intentó mostrar searle en su argumento.
lo que pasa es que searle, al defender que sólo los sujetos biológicos pueden tener intencionalidad y estados mentales (cosa que tampoco argumenta el por qué pero bueno) ya deja de lado a las IA y deslegitimiza el proyecto de la IA fuerte de construir maquinas inteligentes.
Me gusta
Pablo Carrete
27 dic 2020
•
Contestando a
Discrepo en gran medida con las consideraciones vertidas hacia Searle. La primera objeción que querría dejar de lado es la siguiente: "no está suficientemente motivado que la sintaxis no es constitutiva ni suficiente para la semantica". Aunque Searle no motive dicha afirmación es intuitivamente verdadera y en el marco de lenguajes más específicos como el de la aritmética es de hecho determinadamente verdadera, pues es bien sabido desde los teoremas de incompletitud de Gödel que ciertos lenguajes consistentes son incompletos. Esto quiere decir que ciertas verdades (elemento semántico) de una teoría específica no son demostrables (elemento sintáctico), es decir, son indecidibles. Podríamos extrapolar dicho caso a lenguajes inconsistentes como el lenguaje natural y considerar que la sintaxis en estos casos si es constitutiva y suficiente para la semántica, pero tal pretensión es facilmente derribable si consideramos la paradoja del mentiroso: en términos sintácticos es perfectamente expresable, pero el componente semántico de la paradoja no se agota en su perfecta comprensión sintáctica. Al haberla motivado de tal manera, entonces es perfectamente psible negar el caracter epírico de la justificación del experimento por la vía de los Churchland. Ahora, en cuanto a la circularidad del presunto argumento se puede señalar que la circularidad es de la reconstrucción. Al tratarse del un experimento mental, reconstruir de esa manera el argumento subyacente ignora todo el componente entimemático de la exposición, con lo cual es posible afirmar que los Churchland realizan una interpretación poco caritativa de la exposición de Searle.
Me gusta
Elsa Buitrago
23 dic 2020
•
Yo creo q Searle no sólo ilustra que se puede pasar el test de Turing sin pensar, es más que eso: trata de demostrar q el proceso de codificar y decodificar no guarda ninguna relación con la comprensión significativa del mundo
Me gusta
Andrés Martínez López
22 dic 2020
•
A mí me parece que el Searle se monta una parafernalia que no necesita. La idea del experimento de Searle es que se puede satisfacer el test de Turing sin la necesidad de que el objeto que lo necesite sea un objeto pensante.
Quiero decir es que para decir eso no hace falta montarte esa paranoia. La habitación, las piezas con letras chinas, las instrucciones... Todo eso es muy aparatoso, muy complejo.
Además no deja claro que es ser un objeto pensante y qué deja de serlo. Me parece que es un experimento que no dice nada. No entiendo la resistencia a considerar a las máquinas seres pensantes.
Me gusta
VERITAS
21 dic 2020
"Imagina a un/a hablante nativo de español que no sabe chino encerrado en una habitación llena de cajas de símbolos chinos (una base de datos) junto con un libro de instrucciones para manipular los símbolos (el programa). Imagina que las personas que están fuera de la sala envían otros símbolos chinos que, desconocidos para la persona en la sala, son preguntas en chino (la entrada o input). E imagina que siguiendo las instrucciones del programa, la persona en la habitación puede pasar símbolos chinos que son respuestas correctas a las preguntas (la salida o output). El programa permite que la persona en la sala apruebe la prueba de Turing para comprender el chino, pero no entiende ni una palabra de chino."
a pesar de que el experimento de la habitacion china pueda parecer una maravilla yo pienso que solo es un juego engañoso y falaz. cuando estaba escribiendo mi tfg, vi (entre muchas de las respuestas que se le dio a este experimento mental) una respuesta que me gusto mucho que es la de los churchland, ya que apelan a la estructura lógica del argumento mostrando que en ella hay una petición de principio. el argumento de searle lo dividen en estas tres premisas:
-los programas de ordenador son formales (sintaxis)
-las mentes humanas tienen contenido mental (semantica)
- la sintaxis no es constitutiva ni suficiente para la semantica
conclusion: los programas de ordenador no son ni constitutivos de, ni suficientes para la semantica.
lo que los churchland dicen basicamente es que se comete una peticion de principio puesto que es un argumento circular, la conclusión es prácticamente lo mismo que dicen las premisas. además, también señalan que la tercera premisa se la saca de la manga, y es que es la verdad (en ningun momento searle argumenta por que eso es asi). el caso es que esa premisa podría ser tanto verdadera como falsa,y por este motivo el argumento de searle dejaria de ser a priori y pasaría a ser una cuestión empírica. el proyecto fuerte de la IA puede ser tanto verdadero como falso, pero no necesariamente falso como intentó mostrar searle en su argumento.
lo que pasa es que searle, al defender que sólo los sujetos biológicos pueden tener intencionalidad y estados mentales (cosa que tampoco argumenta el por qué pero bueno) ya deja de lado a las IA y deslegitimiza el proyecto de la IA fuerte de construir maquinas inteligentes.
Yo creo q Searle no sólo ilustra que se puede pasar el test de Turing sin pensar, es más que eso: trata de demostrar q el proceso de codificar y decodificar no guarda ninguna relación con la comprensión significativa del mundo
A mí me parece que el Searle se monta una parafernalia que no necesita. La idea del experimento de Searle es que se puede satisfacer el test de Turing sin la necesidad de que el objeto que lo necesite sea un objeto pensante.
Quiero decir es que para decir eso no hace falta montarte esa paranoia. La habitación, las piezas con letras chinas, las instrucciones... Todo eso es muy aparatoso, muy complejo.
Además no deja claro que es ser un objeto pensante y qué deja de serlo. Me parece que es un experimento que no dice nada. No entiendo la resistencia a considerar a las máquinas seres pensantes.
"Imagina a un/a hablante nativo de español que no sabe chino encerrado en una habitación llena de cajas de símbolos chinos (una base de datos) junto con un libro de instrucciones para manipular los símbolos (el programa). Imagina que las personas que están fuera de la sala envían otros símbolos chinos que, desconocidos para la persona en la sala, son preguntas en chino (la entrada o input). E imagina que siguiendo las instrucciones del programa, la persona en la habitación puede pasar símbolos chinos que son respuestas correctas a las preguntas (la salida o output). El programa permite que la persona en la sala apruebe la prueba de Turing para comprender el chino, pero no entiende ni una palabra de chino."
FUENTE: Cole, David, "The Chinese Room Argument",The Stanford Encyclopedia of Philosophy(Winter 2020 Edition), Edward N. Zalta (ed.), URL = <https://plato.stanford.edu/archives/win2020/entries/chinese-room/> (traducción propia).
Absolutamente