Skip to main content

¿Vigilancia extrema o destrucción global?

13 de Marzo de 2020//
(Tiempo estimado: 4 - 7 minutos)

La tecnología puede acabar destruyendo la humanidad si no tomamos medidas que lo eviten. Así lo afirma el filósofo futurista Nick Bostrom en su reciente estudio Las hipótesis del Mundo Vulnerable (The Vulnerable World Hypothesis), donde detalla las amenazas que acechan al mundo en la actualidad y propone posibles soluciones.

El transhumanista sueco considera casi un milagro que todas las tecnologías creadas por el hombre hasta el momento –excepto la energía nuclear- hayan servido para impulsar el desarrollo en vez de provocar la destrucción, pero alerta de que lo más probable es que no tengamos la misma suerte en el futuro.

Para evitarlo defiende la implementación de políticas preventivas que pasan por desarrollar una gobernanza global efectiva y restringir el desarrollo tecnológico, aunque su propuesta más polémica es la de establecer una vigilancia policial preventiva. Si queremos evitar que nuestra civilización sea devastada, advierte, es imprescindible sacrificar ciertos derechos como la libertad. Así, plantea la posibilidad de implantar un panóptico hi tech, una pulsera que registre los movimientos de todos y cada uno de los habitantes del planeta para detectar cualquier actividad sospechosa e interceptarla si fuese necesario. 

Durante la celebración de TED2019 Vancouver, Bostrom explicó a Chris Anderson las posibles causas que nos podrían llevar a una destrucción del planeta y las medidas que deberíamos tomar para prevenirlo.

CHRIS ANDERSON: Usted ha elaborado un trabajo que alerta sobre la vulnerabilidad a la que se enfrenta el mundo. ¿Podría detallarnos en qué consiste? 

NICK BOSTROM: Comparo la creatividad con una urna llena de pelotas  que representan ideas, descubrimientos, inventos… cada vez que creamos una tecnología, sacamos una bola de la urna; por el momento, el efecto neto de esta acción ha sido muy beneficioso: hemos extraído gran cantidad de bolas blancas y algunas grises, pero ninguna negra, es decir, no hemos diseñado ninguna tecnología que destruyese la civilización. 

Mi trabajo se basa en elucubrar sobre lo que podría ocurrir si sacamos una bola negra que nos lleve directamente a la destrucción, salvo que consigamos salir la condición semi-anárquica en la que vivimos instalados por defecto.

C.A.: Asegura que “el progreso continuado en mecánica celestial producirá la Bomba H”…

N.B.: Con esa frase trato de ilustrar la dificultad que tenemos a la hora de prever hacia dónde nos llevarán los descubrimientos básicos; no tenemos la capacidad de predecir. Somos bastante hábiles extrayendo bolas, pero incapaces de devolverlas. Podemos inventar, pero no des-inventar. 

C.A.: ¿Cuáles son esas bolas negras potencialmente peligrosas?  

N.B.: La bola negra más fácil de imaginar es una tecnología que provocase una enorme destrucción. La biología sintética o la geoingeniería son armas de doble filo. Con esta última podríamos combatir el calentamiento global, pero también alterar radicalmente el clima. Otra bola negra podría ser la nanotecnología, ya que tiene la capacidad de producir masivamente robots asesinos del tamaño de un mosquito, y la Inteligencia Artificial en general.

C.A.: También ha alertado del desastre que se hubiera producido si las armas nucleares se pudieran desarrollar con materiales más fáciles de conseguir…

N.B.: Para crear una bomba atómica se necesita uranio enriquecido o plutonio, materiales que sólo pueden obtenerse utilizando ultracentrifugadoras y reactores nucleares, pero imaginemos que alguien pudiese construir un arma termonuclear en un microondas, o que un pequeño grupo de químicos desarrollase un arma biológica capaz de eliminar a miles de millones de personas, ¿dónde estaríamos hoy? Antes de desarrollar una tecnología relevante, deberíamos analizar hasta dónde nos puede llevar.

C.A.: Creo que una de las tecnologías más peligrosas para la humanidad es la biología sintética, ¿está de acuerdo?

N.B.: La vulnerabilidad que yo denomino del tipo 2A o primer ataque asegurado se refiere a aquellas tecnologías que posibilitan a los grandes poderes usar su enorme fuerza para destruir, y las armas nucleares están muy cerca de esta categoría. La destrucción mutua asegurada fue durante mucho tiempo el garante de que el bloque soviético y el capitalista no se aniquilasen. Pero existe el riesgo de que ese equilibrio se venga abajo.

A nivel global se han destinado más de 10 trillones de dólares para construir más de 70.000 cabezas nucleares, que en algún momento estuvieron en DEFCON 1 y casi volamos por los aires. Obviamente, gastar todo ese dinero en destruir el mundo no era una gran idea, pero los incentivos eran tales que si se hubiese producido un primer ataque habría sido muy difícil reprimir el lanzamiento de todos los misiles nucleares, aunque sólo fuera por temor a que lo hiciera el otro bando. 

C.A.: También sostiene que la destrucción puede estar causada por determinados actores que se sienten incentivados a tomar decisiones negativas para el resto, pero beneficiosas para ellos, ¿a qué se refiere?

N.B.: Al calentamiento global, por ejemplo. Vivimos en un entorno repleto de comodidades que consideradas de forma individual parecen no tener mucha importancia, pero su uso masivo ocasiona una destrucción mucho mayor de la que se podría haber producido con una utilización a pequeña escala. No sería preocupante si sólo una pequeña parte de las personas que pueden conducir coches o cortar árboles lo hicieran, el problema es que demasiados se decantan por hacerlo. Sin coordinación global, es imposible hacer frente a este tipo de amenazas.

C.A.: ¿Cree que hay una bola de la muerte en nuestro futuro? 

N.B.: No podría afirmarlo con rotundidad, pero sí creo que además de las bolas negras puede haber bolas doradas que nos protejan, aunque desconozco el orden de aparición.  

C.A.: Según su filosofía, el futuro está determinado: las bolas están dentro de la urna o no están. ¿No es posible pensar que las decisiones que tomemos hoy determinarán qué tipo de bolas sacamos?

N.B.: Si seguimos inventando, acabaremos sacando todas las bolas. Existe una forma débil de determinismo tecnológico que es bastante plausible, de la misma manera que es bastante improbable encontrar una sociedad que use hachas de pedernal y aviones a reacción. 

Podemos considerar la tecnología como un conjunto de posibilidades, porque nos permite hacer muchas cosas que tendrán diversos efectos en el mundo. El uso que hagamos de ella determinará nuestra elección como humanos.

C.A.: Por tanto, si asumimos el poder de la aceleración tecnológica y creamos herramientas que aumentan nuestro poder, llegaremos a un punto donde un solo individuo pueda acabar con todo. ¿No es un argumento muy alarmante? 

N.B.: Si cada vez adquirimos más poder, y este es cada vez más sencillo de utilizar, el argumento que plantea es evidente; pero también podemos inventar tecnologías que nos ayuden a controlar cómo las personas utilizan ese poder. 

C.A.: ¿Cuáles son las posibles respuestas a las nuevas tecnologías como la Inteligencia Artificial? 

N.B.: Restringir el desarrollo tecnológico no es prometedor, factible ni deseable. Hay áreas limitadas donde el progreso tecnológico puede y debe ser más lento como, por ejemplo, el bio-armamento, o la separación isotópica que facilita la creación de armas nucleares. 

C.A.: ¿Deberían existir restricciones en determinados ámbitos como el de la biología sintética?

N.B.: Por supuesto, porque cualquier cambio nuevo y profundo puede convertirse en una bola negra. Si bien es deseable tener máquinas para sintetizar ADN, quizás deberíamos plantear su uso como un servicio bajo control que permita enviar a varios lugares del mundo modelos digitales, tras haber analizado su peligrosidad. De esta forma, tendríamos un número finito de cuellos de botella sin renunciar a las nuevas oportunidades que ofrece la tecnología.

Para estabilizar el mundo frente a posibles vulnerabilidades sería conveniente crear políticas preventivas capaces de interceptar en caso de mal uso. Sin embargo, esto requeriría vigilancia permanente y todo el mundo estaría continuamente monitorizado. 

La otra capacidad de estabilización general es aquella destinada a rellenar los agujeros que existen en la gobernanza. La vigilancia serviría para llenar los vacíos a nivel micro para impedir que un individuo hiciese algo ilegal. El problema es que también hay un vacío de gobernanza a nivel macro para prevenir los grandes fallos de coordinación global como guerras, carreras armamentísticas o cataclismos. 


Nick Bostrom, filósofo y director del Instituto para el Futuro de la Humanidad de la Universidad de Oxford, entrevistado por Chris Anderson, director de TED

Texto publicado en Executive Excellence nº165, marzo 2020