{"id":21,"date":"2008-02-19T21:46:45","date_gmt":"2008-02-19T19:46:45","guid":{"rendered":"https:\/\/medina-psicologia.ugr.es\/ciencia\/?p=21"},"modified":"2010-02-04T11:58:54","modified_gmt":"2010-02-04T09:58:54","slug":"el-virus-eliza","status":"publish","type":"post","link":"https:\/\/www.cienciacognitiva.org\/?p=21","title":{"rendered":"El virus Eliza"},"content":{"rendered":"<p>Fernando Mart\u00ednez Santiago<br \/>\nGrupo SINAI. Dpto de Inform\u00e1tica de la Universidad de Ja\u00e9n, Espa\u00f1a<\/p>\n<p><img style='margin-right:20px;'src=\"https:\/\/www.cienciacognitiva.org\/files\/2008-4.jpg\" alt=\"(cc) byourself_4\" height=\"225\" hspace=\"10\" vspace=\"10\" width=\"300\" align=\"left\" \/><em>La inteligencia artificial, lejos de ser una disciplina homog\u00e9nea y bien definida, se ha ido convirtiendo con el paso de los a\u00f1os en un caj\u00f3n en el que tanto caben fuegos de artificio como impresionantes aplicaciones industriales, capaces de realizar complej\u00edsimas tareas de muy diversa \u00edndole. Entre todo ello, \u00bfd\u00f3nde ha quedado el anhelo original? \u00bfRealmente queremos encontrar un modelo computacional de nuestra capacidad cognitiva?<\/em><\/p>\n<p><!--more--> <a href=\"https:\/\/www.cienciacognitiva.org\/files\/FernandoMartinezSantiago-CC-19febrero2008.pdf\" title=\"versi\u00f3n en pdf\" target=\"_blank\">[versi\u00f3n en pdf]<\/a><\/p>\n<p>El dos de julio de 1993, en el New York Times comparten portada la demostraci\u00f3n del \u00daltimo Teorema de Fermat junto con un hecho asombroso: un programa de ordenador escribe una novela al estilo de Jacqueline Susann, autora del best-seller \u00abEl valle de las Mu\u00f1ecas\u00bb. Sobre las mismas fechas, el programa SME (Structure-Mapping Engine; Falkenhainer, Forbus &amp; Gentner, 1990), siguiendo un modelo del descubrimiento cient\u00edfico, descubre la analog\u00eda estructural entre el sistema solar y el modelo at\u00f3mico de Rutherford. En 1992, Copycat (Hofstadter, 1995) es capaz de establecer analog\u00edas entre cadenas de letras del tipo \u00absi a \u2018abc&#8217; le sigue \u2018abd&#8217;, \u00bfqu\u00e9 sigue a \u2018aabbcc&#8217;?\u00bb. El programa responder\u00e1 cosas del tipo \u00abaabbdd\u00bb.<\/p>\n<p>De entre todos estos logros, \u00bfcon cu\u00e1l nos quedamos? Si uno es algo esc\u00e9ptico quiz\u00e1s se sentir\u00eda m\u00e1s a gusto ahondando un poco m\u00e1s en c\u00f3mo hacen las cosas estos programas. Por ejemplo, la Jacqueline Susann cibern\u00e9tica no ha aprendido el estilo de la autora leyendo y releyendo sus libros. M\u00e1s bien se trata de un programa que dispone de un enorme conjunto de reglas pre-codificadas en base a las cuales combina trozos de texto en funci\u00f3n de las apetencias del usuario, que puede as\u00ed hacerse un libro a la carta. Eso no es exactamente lo que uno entiende por escribir un libro. Respecto al modelo de descubrimiento cient\u00edfico de SME, podemos decir que no llega a sus analog\u00edas exactamente mediante el m\u00e9todo cient\u00edfico, ni tras el estudio de la literatura, sino que requiere una muy cuidadosa (y por lo tanto artificial) representaci\u00f3n del problema, que debe ser hecha por un experto humano. Entonces cabe la duda de hasta qu\u00e9 punto los hallazgos de SME son suyos o del experto humano. Finalmente, Copycat est\u00e1 equipado con alg\u00fan conocimiento b\u00e1sico relativo a su diminuto dominio: conoce el orden de las letras, es capaz de percibir la repetici\u00f3n de \u00e9stas para formar grupos de un determinado tama\u00f1o, y algunas cosas m\u00e1s. A pesar de lo humilde de la tarea, puede dar con soluciones ingeniosas. Por ejemplo, para el caso \u00ababc-abd, xyz-?\u00bb ocasionalmente descubre la cadena an\u00e1loga \u00abwyz\u00bb, en vez de la m\u00e1s evidente y menos sugerente \u00abxya\u00bb.<\/p>\n<p>Estos tres programas tienen una ligaz\u00f3n clara: de una forma u otra, pretenden modelar parcelas que se cre\u00edan exclusivas de la capacidad cognitiva que poseemos las personas. O al menos parecen hacerlo. Pero si quitamos el envoltorio y observamos lo que hay dentro, aparece la decepci\u00f3n seguida del escepticismo. Para muchos, la inteligencia artifical (IA) tiene mucho de artificial, poco de inteligente y, en definitiva, en el mejor de los casos es una manera de resolver problemas especialmente dif\u00edciles mediante complejas aproximaciones estad\u00edsticas y heur\u00edsticas. Pero ah\u00ed inteligencia no hay, \u00bfo s\u00ed?<\/p>\n<p>El caso del aprendiz de escritor es una variante del conocid\u00edsimo Eliza: un programa que simulaba el comportamiento de un psicoanalista sin m\u00e1s recurso que un repositorio de frases vagas que se aplicaban al detectar palabras como \u00abfamilia\u00bb, \u00abamor\u00bb, \u00abodio\u00bb, etc. en el interlocutor. Eliza no era m\u00e1s que un juego, pero algunas personas aseguraban que Eliza les comprend\u00eda como nadie en el mundo. El caso del programa escritor de best-sellers es incluso malintencionado, pretende convencernos de lo que no es, y consigui\u00f3 recibir el mismo trato en el New York Times que un hallazgo intelectual de primer orden, como es la demostraci\u00f3n del \u00daltimo Teorema de Fermat.  Este tipo de cosas contribuyeron a la creencia de que cuando una computadora consigue un logro m\u00e1s o menos humano, entonces eso no requiere inteligencia a fin de cuentas. Tal es el caso de muchos  programas que han conseguido resultados realmente espectaculares en  muchos \u00e1mbitos del conocimiento humano: hay excelentes jugadores de ajedrez, demostradores de teoremas, diagnosticadores m\u00e9dicos, analistas de bolsa&#8230; y, sin embargo, nadie piensa seriamente que all\u00ed haya inteligencia. Esto es as\u00ed hasta tal punto que se tiende a redefinir ese concepto: inteligencia es todo aquello que no es capaz de hacer una m\u00e1quina. Se da as\u00ed la paradoja de que, conforme la IA avanza, su campo de trabajo se reduce.<\/p>\n<p>\u00bfQu\u00e9 queda entonces del viejo anhelo? \u00bfEs la mente humana algo que podamos modelizar alg\u00fan d\u00eda? Para muchos, las limitaciones te\u00f3ricas que tiene una computadora son las que tenemos nosotros (Hoftstadter, 1979). Esta corriente dentro de la IA se llama IA fuerte, en contraposici\u00f3n con la IA d\u00e9bil, dedicada a resolver problemas una vez ha renunciado a entender c\u00f3mo hacemos las cosas las personas realmente. Y es dentro de la IA fuerte donde se encuadraban tanto SME como Copycat.<\/p>\n<p>Los logros de SME y programas similares como ACME, LISA o, en menor medida, AMBR (Gentner, Holyoak &amp; Kokinov, 2001), nos pueden parecer espectaculares, pero todos requieren que les demos el trabajo convenientemente mascado, casi deglutido. El problema de fondo de estos programas no es lo que hacen, sino el modo en que lo venden. Se podr\u00eda decir que est\u00e1n infectados por el virus Eliza: tanto parece que hacen que uno puede terminar por pensar que no hacen absolutamente nada. Sin embargo, estos programas tienen un indudable valor. En algunos casos est\u00e1n inspirados en teor\u00edas psicol\u00f3gicas avaladas por estudios emp\u00edricos desarrollados durante d\u00e9cadas, y tienen resultados contrastados. Nos cuesta darles su justo valor porque realmente sabemos que no hacen exactamente lo que aseguran hacer. SME no es un modelo de descubrimiento cient\u00edfico, pero es muy probable que, en alg\u00fan momento, nuestra mente use los mecanismos all\u00ed descritos para encontrar analog\u00edas entre situaciones dispares, aunque ello suponga una peque\u00f1a parte, quiz\u00e1s la menos interesante, de todo el proceso. Copycat est\u00e1 dotado de cierta capacidad perceptiva y un rudimentario sentido est\u00e9tico que le gu\u00eda a lo largo de todo el proceso de descubrimiento y establecimiento de la analog\u00eda. Una cr\u00edtica usual que recibe Copycat es que no es escalable: \u00bfc\u00f3mo aplicar este programa a algo medianamente serio?  Bueno, el programa no es nada escalable, pero las ideas que le dan soporte son universales.<\/p>\n<p>Ahora que los Elizas no nos enga\u00f1an y que estamos acostumbrados a los \u00e9xitos de la IA d\u00e9bil, quiz\u00e1s sea el momento de retomar el duro camino apenas esbozado por la IA fuerte: la consecuci\u00f3n de un modelo cognitivo de la mente humana.<\/p>\n<p><strong>Referencias<\/strong><\/p>\n<p>Falkenhainer, B., K. D. Forbus, D. Gentner (1990). The Structure mapping engine: algorithm and examples. Artificial Intelligence, 41, 1-63.<\/p>\n<p>Genter, D., Holyoak, K. &amp; Kokinov, B. N. (2001). The Analogical Mind. Cambridge, MA: The MIT Press.<\/p>\n<p>Hofstadter, D. (1979). G\u00f6del, Escher, Bach: un Eterno y Gr\u00e1cil Bucle. Tusquets Editores &amp; CONACYT.<\/p>\n<p>Hofstadter, D. (1995). Fluid Concepts and Creative Analogies. New York: Basic Books.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Fernando Mart\u00ednez Santiago Grupo SINAI. Dpto de Inform\u00e1tica de la Universidad de Ja\u00e9n, Espa\u00f1a La inteligencia artificial, lejos de ser <span class=\"ellipsis\">&hellip;<\/span> <span class=\"more-link-wrap\"><a href=\"https:\/\/www.cienciacognitiva.org\/?p=21\" class=\"more-link\"><span>Read More &rarr;<\/span><\/a><\/span><\/p>\n","protected":false},"author":4,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[5,24,3],"tags":[74,75,76,73],"class_list":["post-21","post","type-post","status-publish","format-standard","hentry","category-inteligenciaartificial","category-opinion","category-psicologia","tag-analogias","tag-ia-debil","tag-ia-fuerte","tag-inteligencia-artificial"],"_links":{"self":[{"href":"https:\/\/www.cienciacognitiva.org\/index.php?rest_route=\/wp\/v2\/posts\/21","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.cienciacognitiva.org\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.cienciacognitiva.org\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.cienciacognitiva.org\/index.php?rest_route=\/wp\/v2\/users\/4"}],"replies":[{"embeddable":true,"href":"https:\/\/www.cienciacognitiva.org\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=21"}],"version-history":[{"count":0,"href":"https:\/\/www.cienciacognitiva.org\/index.php?rest_route=\/wp\/v2\/posts\/21\/revisions"}],"wp:attachment":[{"href":"https:\/\/www.cienciacognitiva.org\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=21"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.cienciacognitiva.org\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=21"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.cienciacognitiva.org\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=21"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}