Quantcast

Cultura

ANÁLISIS

Zizek: "Bienvenidos al desierto de la poshumanidad"

¿Cómo vamos a explicar que la ciencia se haya convertido en una actividad tan ‘arriesgada’ que representa hoy la principal amenaza para la supervivencia de la humanidad?

Los peligros de la Inteligencia Artificial (IA)
Los peligros de la Inteligencia Artificial Shutterstock.

Una carta publicada el pasado 29 de marzo por el Future Life Institute ha sido firmada ya por miles de profesionales, entre ellos grandes nombres corporativos como Elon Musk, defiende que cualquier laboratorio de Inteligencia Artificial superior a GPT-4 debería "cesar de manera inmediata" su trabajo durante al menos seis meses para permitir a la humanidad tomar conciencia de los riesgos que implican estos avances tecnológicos. Los laboratorios se encuentran en "una carrera desbocada por el control" para desarrollar y situar sistemas cada vez más poderosos que nadie -ni siquiera sus creadores- pueden comprender, predecir o controlar. “A corto plazo, los expertos advierten que los sistemas de inteligencia artificial corren el riesgo de exacerbar el sesgo y la desigualdad existentes, promover la desinformación, alterar la política y la economía y podrían ayudar a los piratas informáticos. A más largo plazo, algunos expertos advierten que la IA puede representar un riesgo existencial para la humanidad y podría acabar con nosotros".

Aunque estas advertencias suenan razonables, el hecho de que Elon Musk esté en la parte superior de la lista es suficiente para activar la alarma: en el momento en que Musk empiece a hablar de ética y responsabilidad social, deberíamos reaccionar con consternación. Entonces, ¿por qué este nuevo estallido de pánico? Se trata de control y regulación, pero ¿de quién? En la pausa de medio año, “la humanidad puede hacer un balance de los riesgos…” ¿Cómo, quién representará a la humanidad? ¿Habrá un debate público mundial? ¿Qué pasa con los laboratorios que (como se esperaba) continuarán su trabajo en secreto, probablemente con la discreta connivencia de las autoridades, sin mencionar lo que harán los estados que se oponen a Occidente (China, India, Rusia)? En tales condiciones, un debate global serio con conclusión obligatoria es simplemente inimaginable. ¿Qué está en juego realmente aquí?

En su Homo Deus, Yuval Harari dijo que la opción más realista en el desarrollo de la IA es una división radical, mucho más fuerte que la división de clases, dentro de la propia sociedad humana. En un futuro próximo, la biotecnología y los algoritmos informáticos unirán sus poderes para producir "cuerpos, cerebros y mentes", con la explosión de la brecha "entre los que saben cómo diseñar cuerpos y cerebros y los que no". Los que montan el tren del progreso adquirirán habilidades divinas de creación y destrucción, mientras que los que queden atrás se enfrentarán a la extinción. El pánico que expresa la carta se sustenta en el temor de que incluso aquellos que “viajan en el tren del progreso” ya no controlarán el desarrollo. En resumen, expresa el miedo de nuestros nuevos amos feudales digitales.

Obviamente, el objetivo de la carta del Future Life Institute está lejos de ser un gran debate público: es un acuerdo de los gobiernos y las empresas. La amenaza de la IA ampliada es muy grave, pero también para quienes están en el poder y quienes desarrollan, poseen y controlan la IA. En el horizonte está nada menos que el fin del capitalismo tal como lo conocíamos: la perspectiva de un sistema de IA autorreproductor que necesitará cada vez menos agentes humanos: la explosión en curso del comercio algorítmico es el primer paso en esta dirección. Por lo tanto, la verdadera elección es clara: una nueva forma de comunismo o un caos incontrolable en el que las máquinas interactuarán con nosotros actuando como socios pseudohumanos.

Zizek y la libertad

Tras una lectura atenta, podemos ver fácilmente que los intentos de “hacer un balance” de las amenazas de la IA tienden a repetir la vieja paradoja de prohibir lo imposible: una IA verdaderamente poshumana es imposible, por eso deberíamos prohibir su desarrollo…Para orientarnos en este lío, deberíamos plantear aquí urgentemente la vieja pregunta de Lenin: ¿libertad para quién, hacer qué? ¿En qué sentido éramos libres hasta ahora? ¿No estábamos ya controlados mucho más de lo que sabíamos? En lugar de simplemente quejarnos de la amenaza a nuestra libertad y dignidad, también deberíamos considerar qué significa la libertad, cómo tendrá que cambiar. Hasta que hagamos esto, ¿actuaremos como histéricos que (según Lacan) buscan un amo? ¿No es esta la esperanza secreta de la tecnología reciente?

El lema de las ciencias posthumanas de hoy ya no es la dominación sino la sorpresa, la emergencia

Ray Kurzweil predice que, debido al crecimiento exponencial de la capacidad de las máquinas digitales, pronto nos enfrentaremos a máquinas que no solo mostrarán todos los signos de la autoconciencia, sino que también superarán con creces la inteligencia humana. No debemos confundir esta postura “posthumana” con la creencia paradigmáticamente moderna en la posibilidad del dominio tecnológico total sobre la naturaleza. Lo que estamos presenciando hoy es una inversión dialéctica ejemplar: el lema de las ciencias "posthumanas" de hoy ya no es la dominación sino la sorpresa, la emergencia (contingente, no planificada). Jean-Pierre Dupuy detectó una extraña inversión de la arrogancia antropocéntrica cartesiana tradicional que fundamentaba la tecnología humana, la inversión claramente perceptible en las investigaciones actuales sobre robótica, genética, nanotecnología, vida artificial y la investigación IA:

"¿Cómo vamos a explicar que la ciencia se haya convertido en una actividad tan ‘arriesgada’ que, según algunos de los mejores científicos, representa hoy la principal amenaza para la supervivencia de la humanidad? Algunos filósofos responden a esta pregunta diciendo que el sueño de Descartes —'convertirse en dueño y poseedor de la naturaleza'— se ha torcido, y que debemos volver urgentemente al 'dominio del dominio'. No han entendido nada. No ven que la tecnología que se perfila en nuestro horizonte a través de la 'convergencia' de todas las disciplinas apunta precisamente a la no maestría. El ingeniero del mañana no será aprendiz de brujo por negligencia o ignorancia, sino por elección. Se 'dará' a sí mismo estructuras u organizaciones complejas e intentará aprender de lo que son capaces mediante la exploración de sus propiedades funcionales: un enfoque ascendente y de abajo hacia arriba. Será un explorador y experimentador al menos tanto como un ejecutor. La medida de su éxito será más la medida en que sus propias creaciones lo sorprendan que la conformidad de su realización con la lista de tareas preestablecidas".

Este artículo se publica con autorización de Akal, editorial de los principales ensayos de Slavoj Zizek en castellano.

Ya no se pueden votar ni publicar comentarios en este artículo.