Asier Arias
Dept. de Filosofía IV, Universidad Complutense de Madrid, España

(cc) Luc Viatour / www.lucnix.be
Hace ahora un año que falleciera David Everett Rumelhart, conexionista pionero y editor junto con James Lloyd McClelland de la llamada “biblia del Procesamiento Distribuido en Paralelo” (PDP). Al mismo tiempo, los dos volúmenes de la referida biblia celebraban su vigésimo quinto cumpleaños. También uno de los padres de la inteligencia artificial, John McCarthy, que bautizara de hecho la disciplina, nos abandonó el pasado mes de octubre a los 84 años. Estas tres efemérides nos sirven de pretexto para un breve recorrido por las derivas y obstáculos a los que se ha enfrentado el llamado paradigma conexionista desde su puesta en escena como alternativa al cognitivismo clásico.

La Neurociencia Computacional es un campo reciente, pero bien establecido dentro de las Neurociencias. En un primer artículo (
La Neurociencia Computacional es una disciplina consolidada, con más de 20 años de desarrollo, y que emplea técnicas muy diversas para entender diferentes computaciones cerebrales. Aquí se introduce brevemente mediante dos artículos. En el primero, «Qué es y por qué es difícil su estudio», se introducen de forma muy general cuáles son sus objetivos como ciencia y los problemas con los que se encuentra. En el segundo, mediante «Un ejemplo muy representativo en el campo» abordamos su metodología y destacamos la trascendencia que la Neurociencia Computacional está teniendo y tendrá dentro de las Neurociencias.
COLAMN («Una novedosa arquitectura de procesamiento para sistemas cognitivos basada en la microcircuitería laminar del neocórtex») es un macroproyecto dentro del Reino Unido que intenta implementar en silicio la corteza cerebral de mamíferos. Este sistema sería capaz de realizar multitud de operaciones complejas que los ordenadores convencionales no son capaces de hacer. En este proyecto están implicados científicos cognitivos de diversas áreas, como la ingeniería, matemáticas, biología o informática.