Sobre 1950 se fue consolidando un grupo de investigadores en ee.uu. que trabajaba en psicología cognitiva, prescindiendo del conductismo. Estos investigadores se basaban fuertemente en una metáfora: concebir la mente como un ordenador. Metáfora que llevó a la consolidación de la psicología cognitiva (y de las ciencias cognitivas en general). Para esto, fue fundamental el incipiente desarrollo de la informática y la inteligencia artificial. Uno de los hitos a los que hacemos referencia fue cuando Alan Turing desarrolló una máquina.

La Máquina de Turing

El dispositivo que se conoce con el nombre de Máquina de Turing consistía en una cinta alargada dividida en celdas idénticas que podían estar en blanco o marcadas con un símbolo de un alfabeto finito. Eran escaneados por el cabezal, que podía realizar cuatro movimientos (moverse a la derecha, a la izquierda, borrar la marca, imprimir la marca).

Alan Turing. En 1952 fue culpado judicialmente por ser homosexual y se suicidó en 1954. En 2013 fue indultado por la Reina Isabel ii. Der. Representación esquemática de su Máquina. Fuente: izq. Wikimedia Commons, der. Unidad de Comunicación fp-Udelar.

La lectura de estos números por parte del cabezal junto con la posición del símbolo conducía a la interpretación de esos signos y el estado en que se encontraba la máquina (p.ej., iniciando, en curso o finalizando una tarea). Por ejemplo, «un 1 en la posición 14 es un 7». Si bien Turing por sí mismo nunca creó esta máquina, sí ofreció una solución matemática para resolver estos problemas, apoyándose en la noción de algoritmo. Un algoritmo es un conjunto finito de reglas claras que se aplican sistemáticamente sobre un objeto para transformarlo en otra forma definida. Los lectores de cd, por ejemplo, funcionan algorítmicamente en tanto las instrucciones a seguir ante determinada marca en el cd son siempre las mismas y pueden determinar la finalización de la lectura.

La contribución de Turing radica en haber definido de forma matemática y numérica la posibilidad de que una máquina pueda procesar una cadena de símbolos muy larga y transformarla en un resultado diferente.

Es también en esta época cuando Claude Shannon propone su teoría de la información.
En la misma utiliza los principios de la lógica (verdadero y falso) para describir dos estados electromecánicos (on y off) y en sus trabajos con Warren Weaver desarrolla una teoría de la información como simples decisiones entre dos alternativas posibles, basadas en la unidad básica de información el bit (binarydigit). En los años 40, Norbert Wiener plantea en «Behavior, purpose and teleology» (1943) la similitud de la comunicación ya sea a través de medios eléctricos, mecánicos o
nerviosos. En 1948 este autor publica el libro La cibernética en el que la define como el estudio de la comunicación, tanto en las máquinas como en los animales y el ser humano. Estos desarrollos incipientes de la informática y su capacidad para resolver problemas complejos como funciones matemáticas dieron esperanzas de haber encontrado en la máquina un símil a la mente. En estos casos, los computadores tienen una representación de la realidad, por ejemplo, un código binario, y un proceso que manipula la información que ingresa en el sistema.
La aproximación computacional tuvo un punto destacado en 1948, cuando en el Instituto Tecnológico de California se realizó un simposio sobre «Mecanismos cerebrales en el comportamiento», financiado por la Fundación Hixon, reuniendo a científicos de primer nivel, entre ellos:

1. El matemático John von Neumann, que realizó la primera comparación entre el cerebro y la computadora electrónica.

2. Warren McCulloch, quien empleó el paralelismo entre el sistema nervioso y los dispositivos lógicos y consiguió aplicar un algoritmo de funcionamiento de la máquina de Turing a un complejo de redes neuronales.

3. El psicólogo conductista Karl Lashley, quien planteó las dificultades del conductismo en el estudio científico de la mente, principalmente en lo referente al lenguaje humano, la resolución de problemas, la imaginación y la planificación. Se opuso a la secuencia estímulo-respuesta (e-r) y la absoluta determinación del medio para comprender todas las capacidades humanas.

Según Gardner, el «Simposio Hixon» marcó una época y no fue una conferencia más. Fue especialmente importante para la historia de la psicología cognitiva «debido a dos factores: la vinculación del cerebro con la computadora y el desafío al conductismo entonces prevaleciente» (Gardner, 1985:23). Es así que, sobre 1950, en ee.uu. el terreno está preparado para que las ciencias cognitivas comiencen a desarrollarse.

De hecho, George Miller, un influyente psicólogo de la revolución cognitiva propone la fecha 11 de setiembre de 1956 como el nacimiento de las Ciencias Cognitivas, segundo día del Simposio de la Teoría de la Información en el mit. Allí se plantearon cuestiones muy importantes para la disciplina, por ejemplo:

Allen Newell y Herbert Simon disertaron sobre la máquina lógica.

• Nato Rochester y colaboradores utilizaron el computador más grande existente para verificar la teoría neuropsicológica de las asambleas celulares de Donald Hebb. Este último autor había postulado que las neuronas que por efecto de estimulación se disparan juntas tienen mayor probabilidad de volver a hacerlo en el futuro. Esto genera que ante determinadas circunstanciasde procesamiento de informaciónde una red neuronal se active simultáneamente (la asamblea neural).

Noam Chomsky expone sobre la gramática generativa transformacional y explica su concepción de la estructura sintáctica como algoritmos.

• George Miller diserta sobre los límites de capacidad de la memoria y la capacidad de agrupar los datos que presenta la misma. Esta presentación luego derivó en su famoso artículo «The magical number seven, plus or minus two: Some limits on our capacity for processing information» (El número mágico 7 ± 2), asunto que será retomado en el Capítulo 4 de este libro.

Según Gardner (1985), durante este período comienzan a trascender trabajos relevantes en la discusión interdisciplinaria: Roman Jakobson en fonología, Donald Hebb en neuropsicología, Gregory Bateson en antropología. Comienzan a llegar y despertar interés entre los académicos los trabajos de autores europeos en psicología cognitiva como Piaget, Fraisse o Vigotsky. En los autores de la revolución cognitiva se veía la influencia de los primeros trabajos de McCulloch, Turing, Von Neumann o Wiener, sugiriendo la importancia de la metáfora del computador.

Sin embargo, los debates, publicaciones y en general toda la actividad vinculada a este nuevo enfoque todavía tenía lugar fuera de los campos normales establecidos para dichas disciplinas: «[el estudio de las ciencias cognitivas] era extracurricular
y considerado un poco extraño por los de la psicología tradicional-conductista, la lingüística estructural, la antropología social funcionalista y la neuropsicología del aprendizaje animal» (Gardner, 1985:26-27).

Para la década de 1960 la situación cambió en diferentes escenarios. Por un lado se creó en Harvard el Centro de Estudios Cognitivos (Miller, 2003). Por otro, N. Wiener popularizaba la cibernética y M. Minsky y J. McCarthy inventaban la inteligencia artificial, en tanto, Alan Newell y Herbert Simon usaban extensivamente computadoras para simular procesos cognitivos. Asimismo, N. Chomsky redefinía la lingüística, entre otros movimientos de institucionalización del paradigma cognitivo.

Por todo esto, se puede decir que hacia 1970 el campo cognitivo ya se encontraba popularizado y manifestaba su carácter interdisciplinario, aunque bajo una heterogeneidad de nombres y propuestas. Algunos de ellos fueron: estudios cognitivos, procesamiento de información o ciencia cognitiva. Solo se comenzó a consolidar un nombre cuando la Fundación Sloan en 1976 se interesó en la cuestión. En ese entonces la fundación: acababa de terminar un programa de apoyo altamente exitoso para un nuevo campo llamado “neurociencia” y dos vicepresidentes de la fundación (…) pensaban que el siguiente paso sería tender un puente para cerrar la brecha entre el cerebro y la mente. Necesitaban alguna manera para referirse a este próximo paso y seleccionaron ciencia cognitiva. (Miller, 2006:85)

En este contexto, en 1978 la Fundación Sloan organizó un comité con académicos de las distintas disciplinas que activamente participaban de la revolución cognitiva, esto es, la psicología, la lingüística, la antropología, las neurociencias, la computación y la filosofía (Miller, 2003). Antes de dicho encuentro los esfuerzos colaborativos interdisciplinarios habían sido más bien escasos. Pero las potencialidades de colaboración observadas y lo fértil de las interacciones establecidas entre los académicos del comité llevaron a la elaboración de un informe final en el que se produce por primera vez la figura, el hexágono cognitivo (ver figura 1.4 izquierda).

Dicho hexágono quiso cumplir un rol de orientación y llamamiento para intensificar el trabajo interdisciplinario que se vislumbró en todas las disciplinas representadas en dicho simposio.

Figura 1.4. Izq. Hexágono cognitivo de 1978 según Miller (2003). Las líneas representan las disciplinas que habían iniciado el camino interdisciplinario para aquel entonces. Der. El laberinto cognitivo, foto de la tapa de la revista Trends in Cognitive Science (Tendencias en ciencia cognitiva) en un volumen de 2014. Nótese que dicha figura incluye a las ciencias de la educación, área de gran desarrollo reciente dentro de las ciencias cognitivas. Fuente: Hexágono cognitivo, Unidad de Comunicación fp-Udelar. Laberinto cognitivo, reproducido con autorización de la Cognitive Science Society, Inc.

Además de la psicología cognitiva, dentro del hexágono tenemos otros campos de conocimiento. La inteligencia artificial se dedica al estudio de la inteligencia desde dispositivos tecnológicos, inanimados. Por otra parte, la antropología cognitiva se dedica al estudio de la relación entre la cognición y su entorno cultural y cómo este último determina y estructura la cognición. La lingüística se encarga del lenguaje como fenómeno cognitivo, tanto en su adquisición, como en su estructura y su incidencia en la cognición. La filosofía de la mente aborda temas de corte abstracto, como la relación mente-cerebro, o la naturaleza de las representaciones mentales y, en general, el rol de la experiencia. Las neurociencias se dedican al estudio del funcionamiento del sistema nervioso, a través de distintas técnicas (conductuales, electrofisiológicas y de imagen cerebral, entre otras). Utilizando la metáfora del computador, se podría decir que su investigación se relaciona más con un nivel de hardware que de software.

La colaboración entre neurociencias y psicología cognitiva ha resultado una de las más fructíferas del hexágono cognitivo y ha dado paso a lo que se denomina la neurociencias cognitivas, esto es, la ciencia para el estudio de las bases neurales de los procesos y funciones mentales (en general descritos por la psicología). Al respecto,

De Vega (1998b) considera que la psicología cognitiva debe intentar mantener una buena comunicación interdisciplinar con la neurociencia y estar al corriente de los avances de esta en técnicas de investigación. En realidad, para un psicólogo de formación experimental siempre es informativo el análisis de los fenómenos mediante la «triangulación» que supone utilizar varios métodos convergentes(p. 39).

El hexágono cognitivo, si bien actualmente recibe críticas por su desactualización, es un recurso que sintetiza muy bien el carácter interdisciplinario de los estudios relativos a la mente y la naturaleza emergente, multidisciplinar de las ciencias cognitivas.

Línea de tiempo de la psicología cognitiva a nivel internacional. El desarrollo diferencial en Norteamérica comparado con Europa, es representado por dos líneas independientes hasta la revolución cognitiva. Fuente: Unidad de Comunicación fp-Udelar.

Metáforas para el estudio de la mente

Durante el desarrollo de la psicología y la ciencia cognitiva se han planteado diferentes metáforas para el estudio de las funciones cognitivas y las propiedades mentales. La consolidación de la disciplina a partir de la revolución cognitiva en ee.uu. implicó que estas metáforas se volvieran paradigmáticas en los círculos académicos.

Según Carretero (1997), podemos hablar de tres metáforas para el estudio de la mente en ciencias cognitivas. Estas son:

1. La metáfora del computador, que es, en una primera instancia, la metáfora que toman las ciencias cognitivas en su surgimiento. En ella se entiende a la mente como si fuese un ordenador que es capaz de recibir información del medio, almacenarla, recuperarla y manipularla con propósitos de adaptación al medio.

2. La metáfora del cerebro, entendiendo la cognición bajo un modelo de redes conexionistas y de procesamiento en línea y en paralelo, donde la codificación de la información no es sucesiva sino simultánea. Esta metáfora toma como modelo el funcionamiento de las neuronas y sus procesos de activación e inhibición.

3. La metáfora narrativa, donde la mente se parece más a una función generadora de historias que a una computadora. Esta metáfora proviene de una orientación cultural, más que biológica. Veamos en profundidad cada una de ellas.

La metáfora del computador

La metáfora del computador es el modelo por excelencia de las ciencias cognitivas.
Según Gardner (1985), esto facilitó la delimitación temática, ya que la metáfora dejaba de lado factores afectivos, emocionales, históricos, culturales, sociológicos y contextuales, en el sentido que los ordenadores no se emocionan ni tienen familia.

De esta comparación se obtuvo la idea de que los procesos cognitivos podían ser aislados de los procesos emotivos. La analogía era de carácter funcional y no físico, y en muchos casos supuso el traslado de un lenguaje computacional (p. ej., input-output, software-hardware, random access memory-readonly memory) al lenguaje cognitivo. Esto propició que la explicación de la mente fuera a través de modelos de inteligencia artificial (ejecución análoga pero superior al rendimiento cognitivo humano para procesos simples), de diagramas de flujo, o de simulación (emular losprocesos mentales humanos). Esto llevó a entender a la cognición en tanto objeto discreto que privilegiaba los mecanismos de procesamiento de información y hacía posible un abordaje científico.

Otro aspecto a destacar de la metáfora del computador es su naturaleza representacional, ya que la cognición de un computador procesa información de símbolos abstractos en términos de bits o códigos binarios (inputs) para luego determinar acciones (outputs) a través de reglas de funcionamiento. El modelo es representacional, a través de símbolos abstractos, en términos bit o códigos binarios, que son procesados de acuerdo a reglas de funcionamiento. En las últimas décadas se han popularizado modelos que toman en cuenta al lenguaje y la representación desde un punto de vista más pragmático, por ejemplo en corrientes antirrepresentacionistas.

Según De Vega (1998a), los supuestos del modelo computacional implicaron un encorsetamiento que solo recientemente se ha comenzado a abandonar. Ese corsé sesgó las investigaciones en dirección de emular las características de los computadores del momento. A modo de ejemplo, «se ha dedicado un esfuerzo excesivo en los años 60 al estudio de las ‘estructuras’ de la memoria y de la atención, mimetizando las características del hardware de los ordenadores» (De Vega, 1998a:33).

Actualmente, puede afirmarse que el paradigma simbólico-computacional se encuentra en crisis, en tanto metáfora hegemónica de la psicología cognitiva, principalmente por las limitaciones propias de una concepción de mente universal, o la incapacidad de integrar aspectos cualitativos de la cognición, como ser la consciencia las emociones, etc.

La metáfora del cerebro

Se denomina metáfora del cerebro a la concepción conexionista de la mente que toma el modelo natural de las redes neuronales para explicar los procesos cognitivos. La idea surge por 1960, es abandonada y luego retomada en torno a 1980 por

Rumelhart y McClelland. El origen de la metáfora del cerebro tiene antecedentes en el conexionismo. El conexionismo es el modelo conceptual que entiende a losfenómenos mentales y comportamentales como un proceso emergente de la actividad de redes interconectadas de unidades. El conexionismo asume que los fenómenos mentales pueden ser descritos por redes de unidades sencillas (neuronas) y frecuentemente iguales que se interconectan. Estas representaciones neuronales codifican la información ambiental y decodifican información interna. Dicho argumento se basa en el sinfín de investigaciones que demuestran un correlato neural a nivel encefálico de las vivencias internas y cómo estas codifican circuitos y patrones de respuesta (Cobos, 2005).

Bajo esta metáfora los psicólogos cognitivos entienden que la información no se codifica en etapas sucesivas sino por múltiples entradas simultáneas (en paralelo), de forma similar a como se hace en el cerebro. Si bien hay unidades de entrada y de salida de información, en los modelos conexionistas también hay unidades ocultas.

Estos tres tipos de unidades constituyen una red interconectada donde la inhibición y la excitación configuran un patrón de activación. La activación es un concepto central en el conexionismo, en tanto es la que da la información de entrada para la estimulación de una unidad. Por ejemplo, para el caso de una neurona el estímulo perfecto es aquel que genera el máximo potencial de acción. Esta activación necesariamente dispara toda una red neuronal asociada con dicha neurona originalmente activada, que se propaga de acuerdo a patrones de trabajo de dicha red.

Estos modelos basados en la metáfora de las redes cerebrales proponen que existe capacidad de aprendizaje mediante ajustes y modificaciones en las conexiones, de acuerdo a la entrada y salida de información. Son modelos que poseen una gran flexibilidad, se adecuan a los conceptos de esquema y modelo mental, siendo compatibles tanto con el innatismo como con el empirismo. Por ejemplo, se ha afirmado que algunos aspectos del trabajo de S. Freud o K. Jung referidos a las asociaciones de palabras o símbolos son protoconexionistas. Algunos autores, sin embargo, los critican, entendiéndolos como una especie de retorno al asociacionismo.

La metáfora narrativa

La metáfora narrativa está relacionada con el concepto de significado y la importancia de construcción de historias. Esta busca relacionar a la mente con el contexto social, cultural y de la producción social del conocimiento. Por ejemplo,

Bruner (1990) propone la necesidad de recuperar la «mente» a través de conceptos provenientes de las ciencias humanas, luego de la «deshumanización» de lo mental producto de la revolución cognitiva, bajo una metáfora computacional. Bruner, quien abandonó el movimiento cognitivo luego de los primeros años, afirmaba que las computadoras no crecen así como tampoco pueden crear representaciones, significados ni culturas.

Bruner concibe que la función principal de la mente es narrar historias y atribuirles significados. En este sentido, resalta tres características presentes en toda narración:
a. secuencialidad, o sea, una trama continuada; b. indiferencia «fáctica», o la posesión de una estructura interna indiferente a la realidad extralingüística; c. el carácter canónico de la narración.

Este se construye cuando las creencias son transgredidas, implicando mecanismos
de legitimación y renegociación de significados que permiten hacer comprensible lo excepcional. A su vez, la narratividad posee un carácter dramático que consta de varios elementos: actor, acción, meta, escenario, instrumento, problema, que es la fuerza de la narración, que es la existencia de un desequilibrio entre los cinco elementos anteriores. El dramatismo se da en las desviaciones respecto a lo canónico, o sea, lo que es moralmente valorado. Según Bruner, la narratividad se caracteriza por mediar entre el mundo canónico de la cultura y el mundo más idiosincrático de las creencia, los deseos y las esperanzas. Hace que lo excepcional sea comprensible y mantiene a raya a lo siniestro, salvo cuando lo siniestro se necesita como tropo. Reitera las normas de la sociedad sin ser didáctica (Bruner, 1990, p. 63).

Las narraciones tienen como función la elaboración de marcos o esquemas que permiten construir un mundo frente a la alternativa del caos así como una regulación afectiva, en tanto «… el afecto es algo así como una huella dactilar general del esquema que hay que construir… el recuerdo sirve para justificar un afecto, una actitud» (Bruner, 1990, p. 68).

El funcionamiento narrativo de la mente se ha mostrado útil para comprender y explicar el funcionamiento de la memoria autobiográfica, la consciencia individual y otros procesos cognitivos que soportan al self (el sí mismo).

Del Manual de introducción a la psicología cognitiva. Alejandro Vásquez Echeverría, Paul Ruiz e Ismael Apud.