El NeoConexionismo es un enfoque que aplicamos en la «Ontologá de la Conciencia» para reconocer que la mente y el comportamiento son el resultado de procesos que ocurren en redes de unidades simples interconectadas, como las neuronas.
Este enfoque se basa en modelos de redes neuronales artificiales, que simulan el funcionamiento del cerebro humano. Y se diferencia de la psicología cognitiva clásica, que usa modelos algorítmicos y simbólicos para explicar la cognición.
El neoconexionismo tiene aplicaciones y desafíos en diversos campos, como la inteligencia artificial, la psicología cognitiva, la ciencia cognitiva, la neurociencia y la filosofía de la mente1
Esta teoría inspirada en los estudios del Neurocientificismo tiene como protagista a la red neuronal del cerebro humano y se está enfocando en cómo dichas redes siguen aprendiendo y adaptándose todo el tiempo.
¿Cómo comenzó toda esta historia?
Todo comenzó con la Regla de Hebb, propuesta por Donald Hebb en 1949. Esta regla sugería que si dos neuronas se activaban al mismo tiempo, la conexión entre ellas se fortalecía 2. Esta idea sentó las bases para entender cómo las redes neuronales podrían aprender y adaptarse con el tiempo.
En los años 50 y 60, surgieron los primeros modelos de redes neuronales artificiales. Sin embargo, enfrentaron críticas y limitaciones, y durante un tiempo, la atención se desplazó hacia otros modelos de inteligencia artificial. No obstante, en la década del 80, hubo un resurgimiento del interés en las redes neuronales, impulsado por avances en la computación y nuevos algoritmos, como el de retropropagación (backpropagation) 3. Con la llegada de los grandes databank, alrededor del año 2010, el conexionismo y las redes neuronales artificiales experimentaron un renacimiento.
Estas herramientas permitieron entrenar redes mucho más grandes, llevando al desarrollo de deep learning y a revoluciones en campos como el reconocimiento de imágenes y el procesamiento del lenguaje natural.
Hoy está explicando al mundo cómo la mente y las máquinas pueden aprender y «pensar» a través de redes de conexiones, como las del cerebro humano, que tiene miles de millones de neuronas interconectadas.
Este enfoque, también conocido cono Procesamiento Distribuido en Paralelo PDP se basa en la idea de que el conocimiento no está almacenado en lugares específicos, sino distribuido en toda la red. El aprendizaje ocurre cuando las conexiones se fortalecen o debilitan según la experiencia1.
La historia, comienza en el siglo XX, con el aporte de los Investigadores que propusieron modelos matemáticos de redes neuronales artificiales, que seguimos usando hasta hoy en día, para realizar tareas complejas el reconocimiento de imágenes y el procesamiento del lenguaje natural2.
Acerca de los pioneros en este campo
Alexander Bain fue uno de los pionero en la investigación fisiológica del sistema nervioso. Un inventor y empresario escocés que desarrolló el reloj eléctrico y el fax, entre otras cosas. Inspirados en él, aparecieron luego Frank Rosenblatt y Geoffrey Hinton dos figuras fundamentales en su desarrollo.
Frank Rosenblatt es conocido por su trabajo en el Perceptrón, un modelo de red neuronal artificial que se inspiró en la biología del cerebro 7. Un modelo simple capaz de aprender a clasificar objetos en dos categorías. Aunque el Perceptrón tiene limitaciones, sentó las bases para el desarrollo de redes neuronales más complejas y profundas 7.
Por otro lado, Geoffrey Hinton uno de los pioneros del deep learning, una rama del aprendizaje automático que se enfoca en entrenar redes neuronales profundas. Hinton ha hecho importantes contribuciones al desarrollo de algoritmos de aprendizaje profundo, como la retropropagación (backpropagation), que permiten entrenar redes neuronales profundas con mayor eficacia 1. Además, Hinton ha sido un defensor clave del uso de redes neuronales profundas para resolver problemas complejos en campos como la visión por computadora y el procesamiento del lenguaje natural 7.
En resumen, Frank Rosenblatt y Geoffrey Hinton han aportado a la propuesta de Bain lo necesario para que hoy podamos avanzar en la comprensión y aplicación de las redes neuronales artificiales 7 y los algoritmos de aprendizaje profundo.
El enfoque actual
Está corriente está ofreciendo una forma de modelar y simular los procesos cognitivos humanos. Permitiendo crear máquinas que puedan aprender, adaptarse y «pensar» de manera similar a nosotros. Esto ha contribuido al desarrollo del deep learning, que es una rama de la inteligencia artificial que utiliza redes neuronales muy profundas y grandes conjuntos de datos para resolver problemas difíciles3.
Siendo muy influyente y relevante para entender la mente y la inteligencia artificial, a la vez que sus limitaciones. Incluso algunos aspectos que se han cuestionado son la interpretación de las unidades y las conexiones, la falta de explicación causal, la dificultad para incorporar el conocimiento previo y la generalización a nuevos casos12.
Un momento significativo, desde mi punto de vista, fue cuando conocí personalmente a Ameca, en Enero de 2022.
Mientras el CES volvía a renacer humildemente de las cenizas de la pandemia, se aparece este personaje que. impactaba a cada uno de los asistentes que pasaban enfrente suyo. Y no tenía que ver ni con los dialogos, ni con las peripecias corporales de esta unidad robótica, ya que en ese momento, ni caminaba y sus diálogos contaban la presencia humana detrás de escena.
El éxito de Ameca estaba dado por sus expresiones «casi humanas», el uso de la ironía y el humor simulados, Recordemos que Chat GPT-3 tenía aún muchas limitaciones a la hora en que Ameca se presentó en Sociedad; pero los que estabamos allí, nos dimos cuenta rápidamente sería superado. Y aunque aún estábamos lejos de concebir una IA consciente, el hecho de que pueda simularla con tanto realismo, sembró en algunos de nosotros dudas, un tanto preocupantes.
Desde el comienzo, Ameca dejaba entrever un futuro bastante sombrío para la humanidad y el inicio de una nueva era «mucho mas contoversial» en cuanto a la ética. Frente a lo cual te propongo reflexionar acerca de esta pregunta: ¿Qué fronteras éticas serán necesario respetar, frente a la creación de nuevos seres autónomos?
Este fue el disparador personal para volver a conectarme con mi cosmovisión de una «ontología de la conciencia» y proponerme un nuevo desafío: integrándola con la Inteligencia Artificial.
Los nuevos desafíos
Mente Humana + Robótica + Inteligencia Artificial
Puede que para muchas personas, esté siendo cada vez más dificil comprender cómo funciona la Inteligencia Artificial. Y esto tiene que ver, con que los sistemas computacionales ya no están usando el método algorítmico convencional para procesar la información, sino que otras variantes, como la lógica difusa y el razonamiento inexacto. A este movimiento se le conoce como computación cognitiva, realista o suave, a diferenciarla de la computación algorítmica tradicional o computación dura.
Todos los esfuerzos están destinados a decodificar la forma en que pensamos, sentimos, nos relacionamos y percibimos, pudiendo crear una primer analogía de nuestro sistema nervioso replicado en una máquina inteligente. Por eso, a medida que los estudios sobre la conciencia avanzan, la IA podrá emular mejor los procesos de nuestra mente.
Así y todo, al menos para mi, termina el salto cuántico era sorprendente:
.
¿Qué fue primero, el huevo o la gallina?
Hoy, ambas inteligencias son capaces de procesar información, aprender, razonar, resolver problemas, generar conocimiento; jugando un papel importante en la mejora de las sociedades. Y aunque la diferencia clave parte de que la IA fue una innovación creada por la inteligencia humana y diseñada para realizar tareas específicas, mucho más rápido y con menos esfuerzo. Hoy. desde la IA. se propone crear del Ser humano una raza diferente.
Y aunque la inteligencia humana siga siendo mejor para interactuar personalmente, dado su capacidad para la multitarea, incorporar elementos emocionales propios de la autoconciencia; la IA está siendo mejor para procesar y recordar larguísimas cadenas de información, ordenándola y haciendo mejor cada uno de los procesos secuenciales repetitivos.
Ameca es mucho más que un logro de la robótica y la IA. Ameca es un reflejo de la humanidad que nos invita a redescubrir límites y potencialidades,
Claramente, ambas inteligencias, trabajando juntas, resultan ser las mejores aliadas. Este es y seguirá siendo el panfleto de las transnacionales a la hora de vendernos lo magnífico que resultará la transhumanidad.
En el proceso cognitivo para la formación de conceptos, la comprensión, la toma de decisiones, la comunicación y la resolución de problemas, estamos influenciados por factores subjetivos como la motivación; algo que la IA, aunque ha avanzado significativamente, todavía no puede igualar.
Pese al proceso de idiotización procurado por el modelo de consumo, muchos humanos seguimos siendo capaces de procesar información abstracta, teniendo conciencia de nosotros mismos y siendo sensibles a las emociones de los demás. Esto nos permite captar las señales sociales sutiles y emocionales pertinentes, e interactuar de manera efectiva con otros seres humanos.
Los invito ahora a revisar ahora «algunos ejes» del funcionamiento actual de ambas inteligencias en este cuadro sinóptico, a medida que avanzamos en los gradientes de conciencia:
Solo te pido que seas conciente de que este análisis es solo una fotografía y que los parámetros irán cambiando en la medida del desarrollo. Por lo que las respestas a preguntas tales como: ¿Qué es la inteligencia? ¿Qué la hace posible? ¿Qué la diferencia de otras capacidades cognitivas? ¿Qué implicaciones tiene para la ética, la sociedad y el futuro? tendrán respuestas diferentes a lo largo del tiempo.
Integrando el Conexionismo y la Ontología de la Conciencia
La teoría del conexionismo explica cómo la mente y las máquinas pueden aprender y «pensar» a través de redes de conexiones. Estas redes se inspiran en el cerebro humano, que tiene miles de millones de neuronas interconectadas8. Y se basa en la idea de que el conocimiento no está almacenado en lugares específicos, sino distribuido en toda la red. El aprendizaje ocurre cuando las conexiones se fortalecen o debilitan según la experiencia8.
La ontología de la conciencia, por su parte, es una disciplina que estudia la naturaleza y las propiedades de la misma, es decir, la capacidad de tener experiencias subjetivas, siendo conscientes de nosotros mismos y del mundo. La ontología de la conciencia tradicional se pregunta qué es la conciencia, cómo surge, qué relación tiene con el cerebro y con la realidad, y qué consecuencias tiene para nuestra identidad y nuestra moral10. Mientras en Sonría nos preguntamos sobre esta disciplina, de cara al futuro.
En los próximos años se estarán desarrollando nuevas formas de inteligencia artificial basadas en redes neuronales más profundas con conjuntos de datos mucho más grandes, capaces de realizar tareas más complejas de reconocimiento de imágenes o el procesamiento del lenguaje natural (PLN)11..
Los modelos de IA se combinarán con otras modalidades, como el lenguaje y el sonido, para crear sistemas más inteligentes y versátiles, como los chatbots multipropósito. Mientras la PLN enfrentará varios desafíos, como la heterogeneidad de los idiomas, los acentos y los dialectos, la evolución del lenguaje, la ironía, el sarcasmo y la ambigüedad. Considerando aspectos éticos y sociales, como el sesgo, la privacidad y la responsabilidad. Estas máquinas tendrán un grado de autonomía, creatividad y adaptabilidad superior al actual, lo que plantearía cuestiones sobre su estatus ontológico, su capacidad de tener conciencia y sus derechos y responsabilidades12.
Ambas disciplinas seguirán avanzando en el conocimiento del cerebro humano y sus correlatos neuronales, mediante técnicas de neuroimagen más precisas y menos invasivas. Esto podría permitir una mejor comprensión de los mecanismos cerebrales que subyacen a las distintas formas de conciencia, como la atención, la memoria, el sueño o las emociones13.
Esto facilitará la creación de interfaces cerebro-máquina que permitan una comunicación directa entre el cerebro y los dispositivos externos, lo que mejorará las capacidades cognitivas, sensoriales y motoras de las personas.
El impacto que estos avances puedan llegar a tener en nuestra concepción de la mente y su representación en la realidad podría ser muy significativo. De hecho seguirán cuestionando si la conciencia es una propiedad exclusiva de los seres humanos o si también puede darse en otras entidades biológicas o artificiales.
Frente a este escenario me pregunto: ¿es la conciencia algo unitario?, ¿concebiremos diferentes niveles de conciencia no locales, que vayan más allá de una mente en específico?. ¿Es la conciencia algo intrínseco a la materia o depende de ciertas condiciones o estructuras? ¿Podremos mantener cierto grado de objetividad en aspectos que cada vez se tornan más subjetivos? si se puede medir o no, si se puede modificar o no10.
Estas son algunas posibles formas de imaginar ambas disciplinas en el escenario 2050. Por supuesto el futuro es futurible y puede ser muy diferente a lo que esperamos o deseamos. Lo importante es estar preparados para crear y afrontar los cambios con curiosidad, rigor y responsabilidad.
Algunos enlaces para continuar investigando;
- Conexionismo – Características generales de los modelos conexionistas
- El estudio neurológico de la conciencia: una valoración crítica
- ontología de la conciencia – Fundación Sonría
Compilado y Desarrollado por el Dr Fabián Sorrentino. Fuentes consultadas electrónicamente a la fecha de publicación de este artículo: 1. es.wikipedia.org 2. psicologiaymente.com 3. panamahitek.com 4. conexionismo.com 5. cienciorama.unam.mx 6. timetoast.com 7 Telefonicatech.com 8. sonria.com 9. scielo.isciii.es 10. e-torredebabel.com 11. medium.com 12. epistemologia-e-historia-de-la-psicologia 13.webnode.com.co 14. dx.doi.org