Comida de Frankenstein”, “células de Frankenstein”, “experimento frankensteniano”… El adjetivo ha sido aplicado a todo tipo de productos o procesos artificiales, derivados de la ciencia y la tecnología, por aquellos críticos que los consideran “monstruosos”, lo que literalmente significa “contrario al orden de la naturaleza”.

No es gratuito el origen de este epíteto, aunque muchas veces esté errado: por sus fuertes implicaciones éticas, Frankenstein, o el moderno Prometeo, de Mary Shelley, cuya primera edición recién cumplió 200 años, suele interpretarse como una fábula de advertencia.

En un artículo de la revista Science, Jon Cohen hace referencia a un ensayo aparecido en 2014, en Transactions of the American Clinical and Climatological Association, que presenta una lista de los experimentos contemporáneos que han recibido esta poco honorífica etiqueta, desde la clonación de la oveja Dolly, hasta la síntesis de un genoma bacteriano completo, pasando por la fertilización in vitro, los trasplantes de órganos de cerdos a humanos y, no podían faltar, los organismos transgénicos.

En el mismo artículo, Cohen entrevista a Craig Venter, pionero en genómica, quien ha sido comparado con el joven Víctor Frankenstein por sus esfuerzos para crear una bacteria artificial. Venter piensa que la novela de Mary Shelly afecta a muchas personas porque representa la amonestación fundamental de que no debemos entrometernos con la “Madre Naturaleza” ni con la vida, si no queremos recibir el “castigo divino”.

Y, en efecto, la vida y su creación son los temas centrales de Frankenstein, de allí su apelativo de “Moderno Prometeo” –en su representación tanto del Titán que robó el fuego a los dioses, como la de aquel que modeló con arcilla a los humanos–, y en la novela, vida y creación se muestran bajo una mirada que Shelley seguramente compartía con gran parte de su generación: La humanidad había sustituido a la Naturaleza, considerada una obra de Dios, por la ciencia, que es una obra humana.

Sin embargo, en opinión de Venter, ese mito ha perdurado porque “es fácil vender miedo”, y la mayoría de las personas temen aquello que no comprenden. Tanto los medios, como los antagonistas de ciertas innovaciones, les colocan la etiqueta de “monstruosidades”, ya sea para atraer la atención del público, o para ponerlos en contra de esas innovaciones. Pero, de esta forma –señala Venter–, “pueden hacer más daño (…) que las cosas a las que temen”.

Aún así, Venter reconoce que editar o reescribir genomas podría “contaminar el mundo” y provocar daños no intencionados, por lo que piensa que “tenemos que ser muy inteligentes al hacerlo y sobre cómo hacerlo”.

Hacia la singularidad

Lejos estaba Shelley de soñar con la clonación, los transgénicos o la biología sintética; lo que Víctor Frankenstein realmente consigue no es crear vida, sino reanimar un conjunto de despojos humanos que, asombrosamente, al ensamblarse adquieren inteligencia consciente.

El aumento exponencial de inteligencia de la creatura se aprecia a través del proceso que siguió en su conocimiento del mundo: mientras que, al principio, parece guiado únicamente por sus sensaciones primarias –frío, hambre, cansancio y sed–, en breve tiempo su aprendizaje avanza, tanto por la vía del ensayo y error, como por la de la imitación; es decir, de manera empírica.

Esta evidente propensión del monstruo a aprender con rapidez, así como la alusión a su intuición para inferir cuestiones que desconocía, nos remiten a dos ideas contemporáneas: la explosión de la inteligencia y la singularidad tecnológica.

La noción de una “explosión de la inteligencia” fue expresada formalmente por primera vez por Irving John Good, un especialista en estadística que había trabajado con Alan Turing.

Actualmente, este fenómeno se considera un posible resultado de la creación de inteligencia artificial “dura”, también llamada “inteligencia artificial general” (en contraposición a la “inteligencia artificial limitada” o “débil”), una cognición equivalente o superior a la humana.

Esta forma de inteligencia, casi por definición, tendría la capacidad de auto mejorarse y de perfeccionar todas las actividades intelectuales humanas, incluyendo el diseño de máquinas cada vez mejores y más inteligentes, en una especie de “círculo virtuoso” que generaría, de manera recursiva, máquinas ultra inteligentes, que podrían exceder la capacidad cognitiva máxima de los seres humanos.

La “explosión de la inteligencia”, además, implica un abrupto y desbocado crecimiento tecnológico, que podría provocar cambios inimaginables para la civilización, tras los cuales nuestra sociedad –o la propia humanidad– dejarían de ser las mismas.

Este “salto” se conoce como “la singularidad”, un término popularizado en 1993 por Vernor Vinge, profesor emérito de ciencias de la computación en la Universidad Estatal de San Diego, quien llegó a pronosticar que, al continuar la nueva súper inteligencia mejorándose a sí misma, así como a la tecnología, con un ritmo cada vez más vertiginoso, representaría el final de la era humana.

Al mismo tiempo, de acuerdo con el inventor Ray Kurzweil, “la singularidad tecnológica” señala también el punto en el que los humanos podrían fusionar su inteligencia con la de las máquinas.

La idea central es que este cambio debe suceder de manera casi repentina y, por sus características de complejidad, sus consecuencias, positivas o negativas, no pueden predecirse con precisión.

¿El fin de la humanidad?

Tal incertidumbre le ha ganado, a la posibilidad de una “singularidad”, un lugar en la lista de los llamados “riesgos existenciales”, que son situaciones hipotéticas que representan un peligro de extinción para la especie humana, o cuando menos de un cambio tan profundo que podría colapsar la civilización.

El concepto filosófico de “riesgo existencial” fue presentado en 2002 por el filósofo Nick Bostrom, de la Universidad de Oxford, en el Journal of Evolution and Technology.

Años antes, Bostrom ya había escrito sobre los posibles peligros de la súper inteligencia artificial (súper I.A.), así como de la enorme atracción que, pese a sus riesgos, ésta tiene tanto para las empresas como para los gobiernos, lo que aumenta la probabilidad de que se persiga su desarrollo, ya sea que se garantice o no su inocuidad para los humanos.

Más tarde, en su libro Superinteligencia: caminos, peligros, estrategias (2014), advierte que, de conseguirse una verdadera I.A., esto podría representar un peligro mayor que todas las amenazas tecnológicas previas, al grado de que si la humanidad no maneja su desarrollo con mucho cuidado, podría estar contribuyendo a su propia extinción.

Hace décadas, el desaparecido “padre de la cibernética”, Norbert Wiener, también señaló la dificultad de controlar computadoras muy poderosas, y de predecir su comportamiento, con la observación de que “la subordinación total y la inteligencia total no van de la mano”.

Tales afirmaciones parecen más bien temas de ciencia ficción, pero no lo son para muchos expertos e investigadores, que las toman muy en serio. De hecho, existen varios grupos que estudian y discuten éstos y otros posibles riesgos para nuestra especie, con el propósito de encontrar formas de evitarlos o reducirlos.

Algunos de ellos son el Instituto para el Futuro de la Humanidad, en Oxford, del que Bostrom es director; el Centro para el Estudio del Riesgo Existencial, en la Universidad de Cambridge; el Instituto para el Futuro de la Vida, asociado con el Instituto Tecnológico de Massachusetts, o el Instituto de Investigación de la Inteligencia de las Máquinas, en California, que busca asegurar un impacto positivo de la creación de inteligencia superior a la humana.

Estas organizaciones cuentan con el apoyo de personalidades como Stephen Hawking y Elon Musk, que han expresado su preocupación por la posibilidad de un surgimiento descontrolado de la I.A.

El problema central de una súper I.A. es que muy probablemente sería una inteligencia puramente pragmática, carente de las emociones y la conciencia social que intervienen en los procesos de decisión de los seres humanos.

Ausentes esos componentes, un sistema inteligente que persigue un objetivo podría, en opinión de Bostrom, desarrollar “metas instrumentales”, como inventar tecnología o asegurarse de que nadie pudiera “apagarla”, sin importarle si alcanzar esas metas provoca la pérdida de una o más vidas humanas.

Desde luego que otros investigadores e intelectuales refutan la mera posibilidad de que alguna vez pueda existir una súper I.A.

Por ejemplo, el psicólogo Steven Pinker piensa que es fantasioso el temor de que los sistemas con I.A. maximicen su propio poder o, por accidente, provoquen catástrofes… y dañen a las personas.

Similarmente, el filósofo John Searle, de la Universidad de California, ha expresado que las computadoras “literalmente no tienen… inteligencia, motivación, ni autonomía” y, sobre todo, carecen de arbitrio. “Las diseñamos para que se comporten como si tuvieran ciertas formas de psicología, pero no existe ninguna realidad psicológica para (sus) correspondientes procesos o conductas”. En otras palabras, Searle piensa que las máquinas carecen (y que probablemente nunca adquieran) creencias, deseos, ni motivaciones.

La cuestión es que aún se debate si esta forma de inteligencia sólo contempla la capacidad física de obtener y almacenar datos, y de realizar miles o millones de cálculos y procesos a enorme velocidad (lo que permitió a Deep Blue vencer al ajedrecista Garry Kasparov en 1998), o de pasar la “prueba de Turing” simplemente simulando respuestas humanas; o bien, si además de comprender el lenguaje y aprender de la experiencia también es requisito hacer y entender bromas, crear historias y dominar las sutilezas de la conducta humana.

Pero hasta ahora, pese a que se han propuesto diferentes criterios para determinar esta “inteligencia”, no existe una definición única que satisfaga a todos los investigadores, más allá de que debe incluir capacidad de razonamiento, aprendizaje y planificación, representación del conocimiento, posibilidad de comunicarse en lenguaje natural y de integrar estas habilidades para conseguir objetivos.

Además, tampoco es indispensable la presencia de una súper inteligencia para provocar un cambio profundo… o un caos total, como humorísticamente ilustra el capítulo 7 de la temporada 11 de X Files (que, a su vez, parece inspirado en la serie Black Mirror), en el que teléfonos, autos y otros artefactos “inteligentes” agreden a Mulder y Scully.

Ahora mismo, la tecnología digital está entretejida en gran parte de la sociedad humana, de manera que muchas personas dependen de ella a menudo incluso para sobrevivir, y una falla generalizada podría provocar trastornos severos.

Con todo, al margen del surgimiento de la súper I.A., o de la rebelión de las máquinas, otros riesgos para nuestra forma de vida están más próximos y son más probables, como el cambio climático, la contaminación de aire y agua, o las consecuencias que podría tener la sexta extinción masiva para nuestra especie.

Cuando Víctor Frankenstein se negó a construir una novia para su creatura, por temor a que pudiera reproducirse, y propagar por la Tierra una “raza infernal” que pusiera en peligro la existencia humana, se hace el siguiente cuestionamiento: “¿Tenía derecho a dejar (…) semejante herencia a las generaciones venideras?”

Una pregunta que tanto la ciencia como la sociedad deben tener siempre en mente.

Verónica Guerrero Mothelet (paradigmaXXI@yahoo.com)

Fuente:

The specter of Frankenstein still haunts science 200 years later

Información adicional:

The Doomsday Invention

Are the robots about to rise? Google’s new director of engineering thinks so…

Will Reading Romance Novels Make Artificial Intelligence More Human?

Crédito imagen:

Frankenstein original painting by Blaz. (CC BY-NC-ND 2.0)
(Acrylic on canvas) Chop Shop Garage