Artificial Intelligence

Cada vez que caemos en sueño profundo, para luego soñar, o despertarnos, es un ejercicio empírico de apagar y encender de nuevo la conciencia y, sin embargo, es también una manifestación de su misterio.

Pese a que la conciencia es la única manera como conocemos el mundo exterior, y el interior, como señala el neurocientífico Christof Koch, del Instituto Allen de Ciencias del Cerebro, continúa siendo un concepto de difícil definición. Sus meras descripciones van de que es la condición de estar despiertos, de percibir lo que sucede alrededor, o de tener sensaciones o estados internos, hasta la de contar con el uso pleno de los sentidos y facultades, y de tener una sensación de individualidad, o del “yo”.

Si nos atenemos a la famosa deducción del filósofo del siglo XVII, René Descartes, “pienso, luego existo”, podemos parafrasearla como una certeza de que somos conscientes. Y, no obstante, ni la filosofía, ni más recientemente la ciencia, han podido elaborar una explicación racional acerca de qué es la conciencia, ni tampoco existe un acuerdo sobre cómo se relaciona con la organizada materia del cerebro, o de cuál es su propósito dentro de la evolución.

En todo caso, la acumulación de datos surgidos de estudios clínicos y de laboratorio han demostrado que existe una relación estrecha entre conciencia, mente y cerebro, pero aún se carece de un marco coherente para explicar la naturaleza de esta relación.

Hace pocas décadas, la neurociencia comenzó a abordar el problema de la conciencia desde una perspectiva basada en evidencias. Estas pueden ser fisiológicas, generalmente consistentes en la búsqueda de correlaciones entre la activación de regiones cerebrales, grupos de neuronas, o de neuronas individuales y la conciencia; o bien conductuales, que surgen al observar determinadas conductas que denotan experiencias conscientes.

Pero, aunque la moderna ciencia de la conciencia ha realizado grandes avances al concentrarse en estos llamados “correlatos” neuronales y conductuales de la experiencia consciente, no han sido suficientes para responder preguntas básicas, como la de por qué es la corteza cerebral la que da origen a la conciencia, y no el cerebelo, que contiene todavía más neuronas; ni para demostrar, a través de la conducta, la presencia de conciencia en ciertos casos, como el de los bebés prematuros, de pacientes con daño cerebral grave, de especies no mamíferas, e incluso de máquinas que pueden realizar algunas tareas mejor que los humanos.

Como señala Giulio Tononi, neurocientífico de la Universidad de Wisconsin en Madison, “para resolver estos asuntos, no solamente necesitamos más datos, sino también una teoría de la conciencia que indique qué es la experiencia y qué tipo de sistemas físicos pueden tenerla”.

Tononi ha desarrollado y refinado lo que llama la “teoría de la información integrada de la conciencia” (IIT, por sus siglas en inglés).

Debido a nuestra cotidiana relación con computadoras, internet y redes sociales virtuales, estamos familiarizados con el concepto de “información” y su unidad mínima, el bit. Sabemos que la música, las películas, las fotografías, los libros y hasta nuestra composición genética puede convertirse en datos formados por ceros y unos. Esta información puede copiarse, almacenarse y reproducirse en diversos aparatos, e igualmente puede representarse de distintas formas: como líneas en un papel, como cargas eléctricas en un disco de almacenamiento, o como la fuerza de las conexiones sinápticas entre las neuronas.

Tampoco es una innovación la noción de la conciencia como un “flujo”, ni que los estados subjetivos que dan forma a nuestra vida mental están relacionados directamente con la información que expresa el cerebro en un momento determinado. Lo que resulta más novedoso y atractivo de la IIT es que postula que el nivel de conciencia de una entidad se corresponde con la cantidad de información integrada que tiene esa entidad.

Tononi ha adoptado la definición de “información” como una propagación de causa y efecto dentro de un sistema, que puede medirse a partir de la cantidad de incertidumbre que ésta reduce.

Comprender cómo el cerebro material produce experiencias subjetivas, como la percepción del color rojo, o del perfume de la lavanda, es lo que el filósofo australiano David Chalmers llama el problema “difícil” (hard problem) de la conciencia, y algunos de sus colegas han considerado que su solución podría eludirnos por siempre. Tononi y Koch piensan que esta dificultad se debe a que la perspectiva utilizada por la ciencia para resolverlo parte de observar el cerebro para localizar su origen (bottom-up). En su opinión, esto es como tomar un pedazo de cerebro e intentar extraerle el jugo de la conciencia; tratar de “destilar” la mente de la materia.

Sin embargo, consideran que la situación podría ser menos difícil si se adopta la perspectiva opuesta: partir de la conciencia y preguntarse qué tipo de mecanismos físicos podrían darle origen. Este es el enfoque que asume la IIT y, en sus palabras, representa un marco teórico en evolución que ofrece una descripción de qué se necesita para que surja la conciencia en un sistema, además de ofrecer una explicación para las evidencias empíricas, y realizar predicciones que pueden ponerse a prueba.

Dos axiomas centrales de la IIT son: que los estados conscientes son muy diferenciados; esto es, que incluyen mucha información independiente y, por tanto, podemos ser conscientes de muchas cosas (formas, colores, aromas, sonidos, y demás). Pero, además, que esta información está muy integrada, por lo que siempre que somos conscientes de algo, esto se presenta en la mente de manera completa y total: es irreductible. En consecuencia, no podemos ser conscientes únicamente de contenido sin forma, ni podemos ver sólo la mitad izquierda de nuestro campo visual.

Emergence of Artificial Intelligence

Esta unidad de conciencia parte de una enorme cantidad de interacciones de causa y efecto entre las partes relevantes del cerebro. Por eso, cuando algunas áreas cerebrales se desconectan, o se disgregan, la conciencia disminuye, incluso hasta apagarse, como sucede en el sueño profundo o durante la anestesia. Esto sugiere que la conciencia no es un fenómeno discreto, como el encendido y apagado del interruptor de luz, sino más bien gradual, como parte de un continuo. Por lo tanto, no es una cuestión de todo o nada. Más bien, para adjudicarle conciencia a alguna entidad determinada (humana o no), es necesario que ésta sea una entidad unitaria e integrada, con un gran repertorio de estados muy diferenciados.

En su artículo Consciousness: Here, There, but Not Everywhere, exponen el ejemplo de un fotodiodo, que se enciende cuando detecta luz. En éste, existe muy poca información, porque sólo reduce un poco la incertidumbre. En otras palabras, el fotodiodo puede distinguir entre “esto” y “no esto”, pero no la luz de la oscuridad, ni tampoco entre diferentes tipos de luz. Su respuesta es mínima y simple. En contraste con las opciones del fotodiodo (uno de dos estados), el cerebro humano puede estar en cualquiera de un billón de estados.

Asimismo, como la conciencia no es únicamente una cuestión de cantidad de información, el simple hecho de combinar muchos fotodiodos no será suficiente para igualar la conciencia humana. Mientras que las neuronas de nuestro cerebro se comunican entre sí, fusionando la información en un todo unificado, una red de un millón de fotodiodos en una cámara puede tomar una fotografía, pero la información de cada diodo es independiente de la de los demás.

Así como los teóricos de la información miden la cantidad de información que contiene un archivo digital en bits, Tononi piensa que, en teoría, la conciencia también podría medirse, calculando cuánta información integrada contiene, una posibilidad que se ha demostrado en una red. El investigador llama a esta cantidad phi (Φ), y la ha estudiado en redes simples, formadas por unas cuantas partes interconectadas. Medido en bits, phi expresa el tamaño del repertorio consciente asociado con cualquier red de elementos que interactúan causalmente; es, por tanto, el grado de irreductibilidad de un sistema: un phi de cero indica que el sistema puede reducirse a sus partes individuales, mientras que un phi mayor que cero señala un sistema que, en conjunto, es más que la suma de sus partes.

Sobre esta medición tiene un importante efecto la forma como están conectados estos elementos en la red. Si una red está formada por elementos aislados, su phi será bajo, porque sus piezas no pueden compartir información. Además, no basta conectar un montón de elementos de cualquier forma. Las redes consiguen el mayor phi posible cuando sus partes están bien organizadas; por ejemplo, en conglomerados conectados. En cierto modo, phi representa la sinergia de un sistema; cuanto más integrado sea este sistema, tiene mayor sinergia y es más consciente. Por el contrario, si en un sistema, como el cerebro, las regiones individuales están demasiado aisladas entre sí, o están interconectadas aleatoriamente, su phi será reducido.

Pero un cerebro típico, con muchas neuronas y espléndidamente dotado de conexiones precisas, tendría un phi alto, lo que indicaría la cantidad de conciencia que produce. Y cuando este cerebro está totalmente despierto, su conciencia contiene más bits que cuando está profundamente dormido, o bajo anestesia general.

De hecho, aunque no existe un mecanismo único que sea común a todos los anestésicos, se ha descubierto que una consistente acción en común de éstos es que reducen la actividad del tálamo y desactivan las regiones corticales media y parietal. Aun así, una gran cantidad de registros eléctricos en animales anestesiados en laboratorio ofrecen evidencias de que muchas células corticales, particularmente en las regiones sensoriales primarias, continúan respondiendo selectivamente durante la anestesia. Aparentemente, lo que se interrumpe es la integración funcional a gran escala en el llamado “complejo corticotalámico”, en el que el tálamo y la corteza cerebral se conectan a través de vías neuronales en ambos sentidos, y que se considera un candidato para ser el asiento de la conciencia.

Datos como éste, sumados a los obtenidos en sujetos dormidos, durante la etapa de sueños vívidos, conocida como de “movimiento ocular rápido” (MOR), han hecho pensar a Tononi y a Koch que la conciencia no requiere que ingresen al cerebro datos sensoriales, ni que presentemos necesariamente datos conductuales. Todo lo que importa para la conciencia es la relación funcional (causal) entre las neuronas que forman este complejo corticotalámico.

En un estudio publicado en 2009, Tononi y sus colegas colocaron un pequeño imán en la cabeza de voluntarios. Este enviaba un pulso de electromagnetismo que duraba una décima de segundo, y hacía que las neuronas de una pequeña zona del cerebro se encendieran, y enviaran señales a otras neuronas, haciéndolas encenderse también. Para rastrear estas reverberaciones, registraron la actividad cerebral con electrodos conectados a la cabeza. Así encontraron que el cerebro reverberaba como una campana, y sus neuronas disparaban en un patrón complejo a lo largo de extensas áreas del cerebro durante 295 milisegundos. Luego, los científicos dieron a los sujetos un sedante, y les enviaron otro pulso. En el cerebro anestesiado, las reverberaciones produjeron una respuesta mucho más simple, en una región mucho menor, con una duración de apenas 110 milisegundos. Conforme fue pasando el efecto del fármaco, los pulsos comenzaron a producir ecos más complejos y prolongados.

Más recientemente, una serie de estudios publicada en 2014 demostró que esta complejidad de la respuesta cortical a la estimulación magnética transcraneal se colapsa cuando se pierde la conciencia durante el sueño profundo, la anestesia y el estado vegetativo tras un daño cerebral severo, mientras que se recupera cuando la conciencia resurge al despertar, o durante los sueños lúcidos; o bien, en el estado de conciencia mínima, o el llamado «síndrome de enclaustramiento», cuando el paciente está alerta y despierto pero no puede moverse o comunicarse verbalmente debido a una completa parálisis de casi todos los músculos voluntarios en el cuerpo. Estos resultados coinciden con lo que predice la IIT. De acuerdo con ésta, un cerebro fragmentado pierde parte de su información integrada y, en consecuencia, parte de su conciencia.

Además de estas predicciones, la IIT puede explicar ciertas contradicciones observadas en otros modelos de la conciencia. Por ejemplo, se ha propuesto que la conciencia está generada por la sincronización de las neuronas a lo largo del cerebro, que permite al cerebro reunir diferentes percepciones en una sola experiencia consciente. Sin embargo, durante un episodio de epilepsia, las ondas cerebrales se vuelven más sincronizadas, y aun así las personas pierden la conciencia. Si la sincronización fuera la clave de la conciencia, se esperaría que estos episodios produjeran hiperconsciencia, y no inconsciencia. Su explicación, desde la IIT es que esta situación hace que muchas neuronas se enciendan y apaguen de manera acoplada. Esta sincronización reduce la cantidad de estados posibles en los que puede estar el cerebro, disminuyendo su phi.

Animal diversity

Otro aspecto interesante de la teoría es que, en principio, no limita la posibilidad de conciencia solamente en los humanos, o en los mamíferos. Con algunas coincidencias con el pampsiquismo, la antigua creencia de que toda la materia, animada o no, puede tener cierto nivel de conciencia, la IIT sólo exige que un sistema alcance determinado nivel de integración de la información, para que teóricamente pueda tener un phi diferente de cero; es decir, algún grado de conciencia.

Sin embargo, a diferencia del pampsiquismo, la IIT implica también que no todo puede ser consciente. Por ejemplo, agregados como los montes de arena, algunas redes de retroalimentación, o cualquier grupo de individuos. Además, en contraste con las creencias del funcionalismo, esta teoría predice que las computadoras digitales, incluso cuando su comportamiento pudiera ser funcionalmente equivalente al nuestro, y a pesar de que pudieran incluir simulaciones fidedignas del cerebro humano, podrían no tener prácticamente ninguna experiencia. En palabras de Koch, “uno puede simular el clima en una computadora, pero ésta nunca estará ‘húmeda’”.

Un problema que enfrenta es su actual imposibilidad de calcular con exactitud, ya no digamos el phi del cerebro humano, con la múltiple organización de sus billones de conexiones neuronales, sino incluso el del humilde gusano redondo común, Caenorhabditis elegans, con apenas 302 células nerviosas. Con todo, encontrar algún algoritmo para computar phi con más facilidad, y continuar obteniendo resultados confiables en sus experimentos de laboratorio, no sólo representaría un mayor sustento para su teoría, sino también una novedosa forma de medir la conciencia, y… quién sabe, hasta podría terminar siendo el patrón para conocer el nivel de conciencia de otros seres… o máquinas.

Verónica Guerrero Mothelet (paradigmaXXI@yahoo.com)

Fuente:
Giulio Tononi, & Christof Koch (2015). Consciousness: here, there and everywhere? Philos Trans R Soc Lond B Biol Sci., 370 (1668)

 

Información adicional:

Will We Ever Understand Consciousness? Scientists & Philosophers Debate

Scientists Closing in on Theory of Consciousness

Sizing Up Consciousness by Its Bits

A Complex Theory of Consciousness

Imágenes:

Soul Geometry Two 003, por agsandrew (Andrew Ostrovsky). Cortesía de Deviantar. Algunos derechos reservados. Bajo licencia de Creative Commons 3.0 License.


Emergence of Artificial Intelligence 0007
, por agsandrew (Andrew Ostrovsky). Cortesía de Deviantar. Algunos derechos reservados. Bajo licencia de Creative Commons 3.0 License.

ResearchBlogging.org