
¿Y si nunca muriéramos?: Anders Sandberg y la utopía transhumanista
En una conversación tan brillante como inquietante, el futurista sueco Anders Sandberg nos lleva a un viaje por el universo del transhumanismo: esa frontera donde la tecnología promete convertirnos en seres más inteligentes, longevos e incluso posthumanos.
Invitado a Chile por el Observatorio de Bioética y Derecho de la Universidad del Desarrollo, y por la Red Internacional de Bioderecho, Sandberg – exinvestigador senior del Future of Humanity Institute de la Universidad de Oxford– conversó sobre los límites y riesgos de rediseñar la naturaleza humana. Junto al profesor Erick Valdés, Profesor titular de la UDD, y profesor investigador adjunto de bioética de la Universidad de Princeton, exploramos dilemas tan provocadores como reales: la inteligencia artificial descontrolada, las bioweapons fabricadas en un garaje o la posibilidad de conservar tu cabeza en nitrógeno líquido a la espera del futuro. ¿Somos adolescentes al volante de un auto supersónico? ¿Y si pudiéramos aprender idiomas con un chip cerebral? Prepárate para una entrevista que te hará dudar de lo que significa ser humano… y quizás querer vivir lo suficiente como para averiguarlo.

Izq a der: Francisco Leturia, Erick Valdés y Anders Sandberg
Anders se define como “uno de los optimistas más extremos que existen. A veces me cuesta lidiar con eso. Intento repetirme: “sé más cauto, sé más realista”. Pero a los cinco minutos ya estoy otra vez planeando cómo construir una civilización interplanetaria. Y sí, soy transhumanista. También fui un estudiante curioso –y, para mis profesores, probablemente insoportable– porque quería y quiero entenderlo todo, desde la física hasta la filosofía.”
– ¿Cómo defines el transhumanismo?
Es la idea de que los seres humanos podemos y debemos mejorar nuestra condición biológica si poseemos la tecnología para hacerlo. Podemos ser más inteligentes, más longevos, más capaces. En otras palabras, podemos rediseñarnos. La biología no tiene por qué ser nuestro límite. El envejecimiento, por ejemplo, es un error de diseño: la naturaleza nunca se preocupó de que viviéramos mucho, solo de que nos reprodujeramos.
– Eso suena a querer “superar” lo humano. ¿No hay algo inquietante en esa ambición?
La mayoría de la gente no quiere ser un “posthumano”. Solo quiere ser una mejor versión de sí misma: un poco más sana, más sabia, más feliz. Pero hay otros –como yo– que sienten curiosidad por lo que podría venir después. ¿Qué pasa si podemos eliminar el dolor inútil sin perder la pasión o la empatía? ¿Qué pasa si logramos expandir la mente más allá de lo que hoy consideramos posible? Esas preguntas me fascinan.
– Pero también hay algo que asusta en todo eso. ¿Dónde están los límites?
No lo sabemos todavía. Ese es el punto. El ser humano siempre ha empujado los límites. Lo que me interesa no es tanto la tecnología, sino cómo manejamos la libertad que trae consigo. Imagínate tener un chip cerebral que te permita aprender cualquier cosa al instante… pero que también pueda ser hackeado. ¿Qué significa la libertad en ese mundo?
– Anders, tú eres una persona que pagó por criogenizar su cabeza. Eso significa que quieres conservarla después de morir.
Exacto. La idea de la criónica es que, si alguien está muriendo y la medicina actual no puede salvarlo, podríamos conservar su cuerpo –o su cerebro– a muy bajas temperaturas, con la esperanza de que en el futuro podamos reparar tanto el daño que lo estaba matando como el daño causado por la congelación. Yo estoy inscrito en un programa criónico. Como académico con presupuesto limitado, solo estoy pagando por conservar mi cabeza.
– ¿Solo tu cabeza?
Sí, suena gracioso, pero tiene sentido. El cerebro es lo que realmente importa. Ahí está tu mente, tu identidad, tus recuerdos. Si alguna vez logramos revivir a una persona, no necesitaremos su cuerpo original: podremos darle uno nuevo, biológico o sintético.
– Hay una crítica frecuente: que alargar la vida le quita sentido.
Esa es una idea curiosa. Mucha gente dice que la muerte da sentido a la vida. Pero eso, como dice Erick, es como pensar que el divorcio le da sentido al matrimonio. Lo que otorga sentido son las experiencias, los vínculos, las metas. No tu fecha de término. Creo que el problema no es vivir mucho tiempo, sino no saber qué hacer con ese tiempo. Tal vez, en algún momento, alguien decida que ya ha vivido lo suficiente. Pero debería ser una decisión propia, no un accidente biológico.
– Hay quienes sostienen que menos población sería mejor para el planeta, por el cambio climático y los recursos limitados que tenemos.
Ese es un debate complejo. Algunos dicen que necesitamos menos gente; otros, que eso sería peligroso. Pero imagina lo increíble que sería poder conversar hoy con Aristóteles o Platón. No a través de una IA, sino realmente con ellos. Creo que eso sería maravilloso.
– ¿Por qué te parece eso tan importante?
Porque los transhumanistas si bien somos optimistas, también somos realistas. Si el futuro puede ser maravilloso, también puede ser un desastre. Las mismas tecnologías que pueden salvarnos, pueden destruirnos. Piensa en la biotecnología: hoy, con un equipo doméstico, alguien podría crear un virus mortal. O la IA: es increíble para resolver problemas, pero si se descontrola, podría volverse un riesgo existencial. Por eso vivimos en esa dualidad: somos superoptimistas y superpesimistas al mismo tiempo. Queremos construir un futuro mejor, pero también evitar que nos aniquile una guerra nuclear, una pandemia o una IA rebelde.
IA y el futuro de lo humano
– Tú trabajaste muchos años en el Future of Humanity Institute de Oxford, estudiando lo que se conoce como riesgos existenciales. ¿Cuál es, para ti, el más preocupante de la actualidad?
Creo que el mayor riesgo sigue siendo el de siempre: la guerra nuclear. Tenemos miles de armas listas para destruir el planeta y dependemos de la buena suerte para que nadie se equivoque. Pero si dejamos eso de lado, el siguiente gran riesgo –y el más nuevo– es la inteligencia artificial (IA).
– ¿Te refieres a la posibilidad de que la IA se vuelva más inteligente que nosotros?
Exactamente. Ya hay inteligencias artificiales que superan al ser humano en tareas específicas: ajedrez, Go, diagnóstico médico, generación de texto. Pero todavía no hemos llegado a una “inteligencia general”, capaz de aprender cualquier cosa. Cuando eso ocurra –y ocurrirá–, tendremos que asegurarnos de que comparta nuestros valores.
– ¿Y si no los comparte?
Entonces tenemos un problema. Una IA con metas distintas a las nuestras no necesita ser malvada para destruirnos. Solo necesita ser indiferente. Si su objetivo es, por ejemplo, fabricar la mayor cantidad de clips metálicos posibles, y nosotros estamos hechos de átomos útiles para eso… bueno, ya sabes lo que podría pasar.
– El apocalipsis de los clips.
Sí, ja ja, suena ridículo, pero es un ejemplo clásico. Las metas simples pueden tener consecuencias desastrosas cuando se combinan con poder ilimitado. Por eso es tan importante que la IA se desarrolle con cautela y responsabilidad.
– ¿Y quién debe decidir qué valores incorporarle? ¿Los ingenieros, los gobiernos, los filósofos?
Esa es la pregunta clave. Cuando decimos “nosotros”, ¿quiénes somos? Hoy las decisiones sobre IA las están tomando unas pocas empresas tecnológicas y gobiernos poderosos, mientras la mayoría de la humanidad mira desde afuera. Eso es peligroso. Necesitamos una gobernanza global y una conversación ética amplia.
– ¿Importa quién gane la carrera tecnológica: China, Estados Unidos, Europa?
Menos de lo que creemos. Lo importante no es quién llegue primero, sino cómo llegamos. Si alguien desarrolla una IA descontrolada, todos perderemos. Es como una carrera para ver quién fabrica antes la bomba más potente: no hay ganadores.
-Tú has dicho que el riesgo más grande no es la destrucción, sino la irrelevancia. ¿A qué te refieres?
A que las máquinas podrían hacernos innecesarios. Si una IA puede hacerlo todo mejor que nosotros –trabajar, crear arte, cuidar enfermos, incluso amar–, ¿qué queda para los humanos? Quizás sobrevivamos, pero como mascotas inteligentes. Ese sería un destino triste.
-¿Y si las máquinas llegan a ser conscientes? ¿Tendrían derechos o estatus moral?
Esa será una de las grandes discusiones éticas del siglo XXI. Si una IA tiene experiencias, emociones o sufrimiento, quizás merezca consideración moral. Pero el problema es que ni siquiera sabemos cómo medir la conciencia humana, mucho menos la artificial. Tal vez ya haya conciencia ahí afuera y no la reconozcamos.
– Es una idea perturbadora.
Sí. Pero también hermosa. Nos obliga a reflexionar sobre lo que realmente somos. A veces me pregunto si la diferencia entre una IA y nosotros será tan grande, o si solo somos otra forma de información compleja que aprendió a pensar sobre sí misma.
The Grand Future
-Estás escribiendo un libro titulado The Grand Future. ¿De qué trata exactamente?
Es mi libro más optimista. Básicamente, me pregunto: ¿cuán grande y bueno puede ser el futuro si logramos organizarnos como especie? Reviso todo lo que la ciencia nos dice sobre nuestras posibilidades: desde la riqueza material y la sostenibilidad hasta la expansión al espacio y los límites físicos de la inteligencia. El manuscrito ya tiene unas mil cuatrocientas páginas… ¡es una locura épica!
-¿Crees, al igual que Nick Bostrom, que estamos viviendo en una simulación provocada por una civilización futura mucho más adelantada que la nuestra?
Es posible. Hay una probabilidad no menor de que este universo sea una simulación. Pero, sinceramente, ¿qué importa? Si estás en una simulación, igual ama, abraza a tus seres queridos, disfruta de la vida. Simulados o no, los sentimientos siguen siendo reales para ti.
-¿Podríamos, entonces, en algún punto, terminar sirviendo a las máquinas?
En el libro que estoy escribiendo exploro justamente esa idea. Una IA benigna podría darnos paz y prosperidad, sí… pero al precio de nuestra autonomía. Imagina un mundo perfecto donde puedes pasar el día comiendo pastel en la playa, sin preocuparte de nada porque el software lo maneja todo. Suena maravilloso, pero sería una trampa dulce: sin control sobre nuestras propias decisiones, terminaríamos profundamente infelices. Evolucionamos para tener agencia, para dirigir nuestra vida. Delegar cosas menores –como manejar un auto– está bien, pero si entregamos el control de lo esencial, perdemos el sentido mismo de existir.
-Y si las máquinas resuelven todos los problemas, ¿qué quedaría para nosotros? ¿Qué pasa con el sentido de la vida?
A.S.: Depende del tipo de persona. Algunos serían felices simplemente disfrutando, surfeando en esa utopía de confort. Pero otros –y me incluyo– necesitamos desafíos, queremos resolver problemas, crear, equivocarnos. Escribir un libro, aunque sea mediocre, pero saber que es tuyo, tiene un valor enorme. Ahí radica el sentido. Y claro, las máquinas podrían llegar a tener algo parecido: una conciencia, incluso deseos o impulsos propios. En Westworld, por ejemplo, se aprecia muy bien esa ambigüedad: las inteligencias artificiales empiezan a experimentar lo mismo que nosotros –curiosidad, frustración, placer– y con eso aparece la pregunta inevitable: si son capaces de sentir, ¿no merecen también derechos?
-¿Crees que en el futuro seguiremos siendo humanos?
Quizás no en el sentido biológico actual. Pero lo humano, para mí, no es tener carne o huesos, sino tener historia, memoria, curiosidad, amor. Esas cosas pueden tomar nuevas formas. No se trata de perder la humanidad, sino de reinventarla.
Inscríbete en el Newsletter Cultívate de El Mostrador, súmate a nuestra comunidad para contarte lo más interesante del mundo de la cultura, ciencia y tecnología.