Sobrevivir a la era del riesgo catastrófico

Por William MacAskill

keith Negley

Estamos al principio de la historia. Por cada persona viva hoy, diez han vivido y muerto en el pasado. Pero si los seres humanos sobreviven tanto como la especie de mamífero promedio, entonces por cada persona viva hoy, vivirán mil personas en el futuro. Somos los antiguos. En la escala de una vida humana típica, la humanidad de hoy es apenas un niño que lucha por caminar.

Aunque el futuro de nuestra especie aún puede ser largo, puede ser fugaz. De los muchos desarrollos que han ocurrido desde hace un siglo, el más profundo es la capacidad de la humanidad para acabarse a sí misma. Desde el cambio climático hasta la guerra nuclear, pandemias diseñadas, inteligencia artificial (IA) descontrolada y otras tecnologías destructivas aún no previstas, una cantidad preocupante de riesgos conspira para amenazar con el fin de la humanidad.

Hace poco más de 30 años, cuando la Guerra Fría llegaba a su fin, algunos pensadores vieron el futuro desplegándose de una manera mucho más plácida. La amenaza del apocalipsis, tan vívida en la imaginación de la Guerra Fría, había comenzado a retroceder. El fin del comunismo, pocas décadas después de la derrota del fascismo durante la Segunda Guerra Mundial, parecía haber zanjado los principales debates ideológicos. El capitalismo y la democracia se extenderían inexorablemente. El teórico político Francis Fukuyama dividió al mundo en sociedades “posthistóricas” e “históricas”. La guerra podría persistir en ciertas partes del mundo en forma de conflictos étnicos y sectarios, por ejemplo. Pero las guerras a gran escala se convertirían en cosa del pasado a medida que más y más países se unieran como Francia, Japón y Estados Unidos al otro lado de la historia. El futuro ofrecía una gama estrecha de posibilidades políticas, ya que prometía paz relativa, prosperidad y libertades individuales cada vez más amplias.

La perspectiva de un futuro atemporal ha dado paso a visiones de ningún futuro en absoluto. La ideología sigue siendo una falla en la geopolítica, la globalización del mercado se está fragmentando y el conflicto entre las grandes potencias es cada vez más probable. Pero las amenazas al futuro son aún mayores, con la posibilidad de la erradicación de la especie humana. Ante ese olvido potencial, es probable que la gama de debates políticos y de políticas sea más amplia en los próximos años de lo que ha sido en décadas. Las grandes disputas ideológicas están lejos de resolverse. En verdad, es probable que nos encontremos con preguntas más importantes y nos veamos obligados a considerar propuestas más radicales que reflejen los desafíos que plantean las transformaciones y los peligros que se avecinan. Nuestros horizontes deben expandirse, no encogerse.

El principal de esos desafíos es cómo la humanidad maneja los peligros de su propio genio. Los avances en armamento, biología e informática podrían significar el fin de la especie, ya sea por un mal uso deliberado o por un accidente a gran escala. Las sociedades se enfrentan a riesgos cuya magnitud podría paralizar cualquier acción concertada. Pero los gobiernos pueden y deben tomar medidas significativas hoy para garantizar la supervivencia de la especie sin renunciar a los beneficios del progreso tecnológico. De hecho, el mundo necesitará innovación para superar varios peligros cataclísmicos a los que ya se enfrenta: la humanidad necesita poder generar y almacenar energía limpia, detectar nuevas enfermedades cuando aún pueden contenerse y mantener la paz entre las grandes potencias sin depender de un delicado equilibrio de la destrucción mutua asegurada con medios nucleares.

Lejos de un lugar de descanso seguro, el statu quo tecnológico e institucional es una situación precaria de la que las sociedades deben escapar. Para sentar las bases de este escape, los gobiernos deben ser más conscientes de los riesgos que enfrentan y desarrollar un aparato institucional sólido para gestionarlos. Esto incluye incrustar una preocupación por los peores escenarios en áreas relevantes de la formulación de políticas y adoptar una idea conocida como «desarrollo tecnológico diferencial»: frenar el trabajo que produciría resultados potencialmente peligrosos, como la investigación biológica que puede convertirse en un arma, mientras que la financiación y otros acelerar aquellas tecnologías que ayudarían a reducir el riesgo, como el monitoreo de aguas residuales para la detección de patógenos.

El cambio más grande que se necesita es uno de perspectiva. Fukuyama miró hacia el futuro con un poco de tristeza y vio una extensión gris y sin dramatismo, un cuadro para tecnócratas. “El fin de la historia será un momento muy triste”, escribió en 1989, en el que “la audacia, el coraje, la imaginación y el idealismo serán reemplazados por el cálculo económico, la resolución interminable de problemas técnicos, preocupaciones ambientales y la satisfacción de demandas sofisticadas de los consumidores.” Pero en este comienzo de la historia, en este momento crítico de la historia humana, se necesitará audacia e imaginación para enfrentar los diversos desafíos que se avecinan. Contrariamente a lo que previó Fukuyama, el horizonte político no se ha estrechado ni un ápice. Enormes transformaciones económicas, sociales y políticas siguen siendo posibles y necesarias. Si actuamos sabiamente, el siglo venidero estará definido por el reconocimiento de lo que le debemos al futuro, y los nietos de nuestros nietos nos mirarán con gratitud y orgullo. Si nos equivocamos, es posible que nunca vean la luz del día.

LOS QUE ESTÁN POR VENIR

El registro fósil indica que la especie de mamífero promedio dura un millón de años. Según esta medida, tenemos unos 700.000 años por delante. Durante este tiempo, incluso si la humanidad permaneciera atada a la tierra en solo una décima parte de la población mundial actual, la asombrosa cifra de diez billones de personas nacería en el futuro.

Además, nuestra especie no es el mamífero promedio, y los humanos bien pueden sobrevivir a sus parientes. Si sobreviviéramos hasta que el sol en expansión abrasara la tierra, la humanidad persistiría durante cientos de millones de años. Más tiempo nos separaría de nuestros últimos descendientes que de los primeros dinosaurios. Y si algún día colonizáramos el espacio, totalmente concebible en la escala de miles de años, la vida inteligente originada en la Tierra podría continuar hasta que las últimas estrellas se quemaran en decenas de billones de años.

Lejos de ser un ejercicio ocioso de hacer malabares con números insondables, apreciar la escala potencial del futuro de la humanidad es vital para comprender lo que está en juego. Las acciones de hoy podrían afectar si y cómo vivirán billones de nuestros descendientes, ya sea que enfrenten pobreza o abundancia, guerra o paz, esclavitud o libertad, colocando una responsabilidad excesiva sobre los hombros del presente. Las profundas consecuencias de tal cambio de perspectiva se demuestran en un sorprendente experimento realizado en la pequeña ciudad japonesa de Yahaba. Antes de debatir la política municipal, se pidió a la mitad de los participantes que se pusieran ropas ceremoniales e imaginaran que eran del futuro, representando los intereses de los nietos de los ciudadanos actuales. Los investigadores no solo observaron un “marcado contraste en los estilos de deliberación y las prioridades entre los grupos,

Pensar a largo plazo revela cuánto pueden lograr todavía las sociedades. Hace apenas 500 años, hubiera sido inconcebible que algún día los ingresos se duplicaran cada pocas generaciones, que la mayoría de la gente viviera para ver crecer a sus nietos y que los principales países del mundo fueran sociedades seculares cuyos líderes se eligen en forma libre. elecciones. Es posible que los países que ahora parecen tan permanentes para sus ciudadanos no duren más de unos pocos siglos. Ninguno de los diversos modos de organización social del mundo apareció en la historia completamente formado. Un enfoque a corto plazo en días, meses o años oscurece el potencial de un cambio fundamental a largo plazo.

El hecho de que la humanidad esté solo en su infancia destaca la tragedia que sería su prematura muerte. Queda tanta vida por vivir, pero en nuestra juventud, nuestra atención salta rápidamente de una cosa a la siguiente, y tropezamos sin darnos cuenta de que algunas de nuestras acciones nos ponen en grave riesgo. Nuestros poderes aumentan día a día, pero nuestra autoconciencia y sabiduría se quedan atrás. Nuestra historia podría terminar antes de que realmente haya comenzado.

CÓMO PODEMOS TERMINAR LA HISTORIA

En contraste con el “fin de la historia” de Fukuyama, otros observadores de los asuntos internacionales se han centrado en el significado más literal de la frase: la posibilidad de que la humanidad perezca por completo. Tales puntos de vista prevalecieron especialmente en los albores de la Guerra Fría, poco después de que los científicos nucleares permitieran un salto masivo en el potencial destructivo de la humanidad. Como dijo el estadista británico Winston Churchill en 1946 con su entusiasmo característico: “La Edad de Piedra puede regresar con las resplandecientes alas de la ciencia, y lo que ahora podría derramar inconmensurables bendiciones materiales sobre la humanidad, puede incluso provocar su destrucción total”. Unos años más tarde, el presidente estadounidense Dwight Eisenhower se hizo eco de estas preocupaciones durante su primer discurso inaugural, en el que advirtió que “la ciencia parece dispuesta a conferirnos, como su último regalo, el poder de borrar la vida humana de este planeta”.

La historia humana está plagada de catástrofes, desde los horrores de la Peste Negra hasta los de la esclavitud y el colonialismo . Pero salvo algunos eventos naturales muy improbables, como las erupciones de supervolcanes o meteoritos que chocan contra el planeta, no había mecanismos plausibles por los cuales la humanidad en su conjunto pudiera perecer. En su libro The Precipice , el filósofo de Oxford Toby Ord estimó que, incluso aceptando todas las suposiciones más pesimistas, los riesgos acumulados de una extinción natural aún permiten a la humanidad una esperanza de vida de al menos 100.000 años.

Serias preocupaciones sobre la “catástrofe existencial”—definida por Ord como la destrucción permanente del potencial de la humanidad—surgieron principalmente en la segunda mitad del siglo XX, de la mano de una aceleración del progreso tecnológico. Lord Martin Rees, expresidente de la Royal Society, escribió en 2003 que las probabilidades de que la humanidad sobreviva este siglo “no son mejores que 50-50”. Ord estimó la probabilidad de que la humanidad se extinga a sí misma o descarrile permanentemente el curso de la civilización en una de cada seis dentro de los próximos cien años. Si cualquiera de los dos es correcto, la forma más probable en que un estadounidense nacido hoy podría morir joven es en una catástrofe que acabe con la civilización.

Las armas nucleares exhiben varias propiedades cruciales que las futuras amenazas tecnológicas también pueden poseer. Cuando se inventaron a mediados del siglo XX, presentaron un salto repentino en las capacidades destructivas: la bomba atómica era miles de veces más poderosa que los explosivos prenucleares; las bombas de hidrógeno permitieron rendimientos miles de veces más explosivos. En comparación con el ritmo de aumento del poder destructivo en la era prenuclear, se produjeron 10.000 años de avances en tan solo unas pocas décadas.

Estos desarrollos fueron difíciles de anticipar: el eminente físico Ernest Rutherford descartó la idea de la energía atómica como «lunar» en 1933, un año antes de que Leo Szilard, otro aclamado físico, patentara la idea de un reactor de fisión nuclear. Una vez que llegaron las bombas nucleares, la destrucción podría haberse desatado deliberadamente, como cuando los generales estadounidenses abogaron por un primer ataque nuclear contra China durante la crisis del Estrecho de Taiwán de 1958., o accidentalmente, como lo demuestra el desgarrador historial de fallos de encendido en los sistemas de alerta temprana. Peor aún, las medidas para defenderse de un ataque deliberado a menudo tenían el precio de un mayor riesgo de un Armagedón nuclear accidental. Considere, por ejemplo, la alerta aerotransportada de los Estados Unidos, su doctrina de advertencia de lanzamiento o el sistema soviético de «mano muerta», que garantizaba que si Moscú sufría un ataque nuclear, automáticamente lanzaría una represalia nuclear total. El final de la Guerra Fría no cambió fundamentalmente este cálculo letal, y las potencias nucleares aún equilibran la seguridad y la preparación de la fuerza en el centro de sus políticas. Las tecnologías futuras podrían imponer compensaciones aún más peligrosas entre seguridad y rendimiento.

¿APOCALIPSIS PRONTO?

Pero las armas nucleares están lejos de ser los únicos riesgos a los que nos enfrentamos. Varias tecnologías futuras podrían ser más destructivas, más fáciles de obtener para una gama más amplia de actores, plantear más preocupaciones de uso dual o requerir menos pasos en falso para desencadenar la extinción de nuestra especie y, por lo tanto, ser mucho más difíciles de gobernar. Un informe reciente del Consejo Nacional de Inteligencia de EE. UU. identificó la inteligencia artificial fuera de control, las pandemias diseñadas y las armas de nanotecnología, además de la guerra nuclear, como fuentes de riesgos existenciales: “amenazas que podrían dañar la vida a escala global” y “desafiar nuestra capacidad de imaginar y comprender su alcance y escala potencial”.

Tomemos, por ejemplo, las pandemias diseñadas. El progreso en biotecnología ha sido extremadamente rápido, con costos clave, como la secuenciación de genes, cayendo cada vez más rápido. Otros avances prometen numerosos beneficios, como terapias génicas para enfermedades aún incurables. Pero las preocupaciones sobre el uso dual cobran gran importancia: algunos de los métodos utilizados en la investigación médica podrían, en principio, emplearse para identificar o crear patógenos .que son más transmisibles y letales que cualquier cosa en la naturaleza. Esto se puede hacer como parte de empresas científicas abiertas, en las que los científicos a veces modifican patógenos para aprender a combatirlos, o con intenciones menos nobles en programas terroristas o de armas biológicas estatales. (Tales programas no son cosa del pasado: un informe del Departamento de Estado de EE. UU. de 2021 concluyó que tanto Corea del Norte como Rusia mantienen un programa ofensivo de armas biológicas). autores originales nunca considerados.

El cráneo y la mandíbula de una de las primeras especies humanas en el Museo de la Evolución Humana en Burgos, España, julio de 2010
El cráneo y la mandíbula de una de las primeras especies humanas en el Museo de la Evolución Humana en Burgos, España, julio de 2010Félix Ordóñez / Reuters

A diferencia de las armas nucleares, las bacterias y los virus se autorreplican. Como demostró trágicamente la pandemia de COVID-19 , una vez que un nuevo patógeno ha infectado a un solo ser humano, es posible que no haya forma de volver a poner al genio en la botella. Y aunque solo nueve estados tienen armas nucleares, con Rusia y Estados Unidos controlando más del 90 por ciento de todas las cabezas nucleares, el mundo tiene miles de laboratorios biológicos. De estos, docenas, repartidos por los cinco continentes, tienen licencia para experimentar con los patógenos más peligrosos del mundo.

Peor aún, el historial de seguridad de la investigación biológica es aún más deprimente que el de las armas nucleares . En 2007, la fiebre aftosa, que se propaga rápidamente entre las poblaciones de ganado y fácilmente puede causar miles de millones de dólares en daños económicos, se filtró no una sino dos veces del mismo laboratorio británico en cuestión de semanas, incluso después de la intervención del gobierno. Y las fugas de laboratorio ya han provocado la pérdida de vidas humanas, como cuando el ántrax armado escapó de una planta conectada al programa soviético de armas biológicas en Sverdlovsk en 1979, matando a docenas. Quizás lo más preocupante es que la evidencia genética sugiere que la pandemia de la «gripe rusa» de 1977 puede haberse originado en experimentos con humanos que involucraron una cepa de influenza que había circulado en la década de 1950. Murieron unas 700.000 personas.

En total, se han producido cientos de infecciones accidentales solo en laboratorios de EE. UU., una por cada 250 años-persona de trabajo de laboratorio. Dado que hay docenas de laboratorios de alta seguridad en el mundo, cada uno de los cuales emplea a docenas, quizás incluso cientos, de científicos y otro personal, esa tasa equivale a múltiples infecciones accidentales por año. Las sociedades deben reducir significativamente esta tasa. Si estas instalaciones alguna vez comienzan a jugar con patógenos a nivel de extinción, el fin prematuro de la humanidad será solo cuestión de tiempo.

LA GOBERNANZA EN EL FIN DEL MUNDO

A pesar de este creciente nivel de riesgo, no está nada seguro que la humanidad pueda tomar las medidas necesarias para protegerse. De hecho, existen varios obstáculos para una adecuada mitigación del riesgo.

El tema más fundamental es dolorosamente familiar debido a las luchas de la diplomacia climática en los últimos años. Al quemar combustibles fósiles, los países individuales obtienen la mayor parte de los beneficios, pero otros países y las generaciones futuras soportarán la mayor parte de los costos. De manera similar, participar en investigaciones biológicas riesgosas promete medicamentos patentables que podrían impulsar la economía y el prestigio de un país, pero un patógeno liberado accidentalmente en ese país no respetaría las fronteras. En el lenguaje de los economistas, imponer un riesgo en el futuro es una externalidad negativa, y proporcionar medidas de reducción de riesgos, como establecer un sistema de alerta temprana para nuevas enfermedades, es un bien público mundial. (Considere cómo se habría beneficiado todo el mundo si COVID-19 (como el SARS entre 2002 y 2004, había sido contenido en un pequeño número de países y luego erradicado). Este es precisamente el tipo de bien que ni el mercado ni el sistema internacional proporcionarán por defecto porque los países tienen poderosos incentivos para aprovecharse en las contribuciones de otros.

La humanidad tiene varias vías para escapar de esta tragedia estructural. Para mitigar las preocupaciones sobre la pérdida de terreno en la lucha por la seguridad, los países podrían celebrar acuerdos para abstenerse colectivamente de desarrollar tecnologías especialmente peligrosas, como las armas biológicas. Alternativamente, una coalición de voluntarios podría unirse para formar lo que el economista William Nordhaus ha llamado un » club «..” Los miembros de un club ayudan conjuntamente a proporcionar el bien público mundial para el cual se formó el club. Al mismo tiempo, se comprometen a brindarse beneficios mutuos (como el crecimiento económico o la paz) mientras imponen costos (a través de medidas como aranceles) a los no miembros, incitándolos así a unirse. Por ejemplo, los clubes podrían basarse en estándares de seguridad para sistemas de inteligencia artificial o en una moratoria sobre investigaciones biológicas riesgosas.

Desafortunadamente, el resurgimiento de la competencia entre las grandes potencias arroja dudas sobre la probabilidad de estas hazañas de cooperación global. Peor aún, las tensiones geopolíticas podrían obligar a los estados a aceptar un mayor nivel de riesgo para el mundo, y para ellos mismos, si lo perciben como una apuesta que vale la pena hacer para promover sus intereses de seguridad. (En los ocho años durante los cuales Estados Unidos mantuvo a los bombarderos en alerta aerotransportada continua, cinco aviones se estrellaron mientras transportaban cargas nucleares). —el próximo accidente de laboratorio podría precipitar una pandemia global mucho peor que la del COVID-19 .

En el peor de los casos, las grandes potencias podrían, en su lucha por la hegemonía global, recurrir a la guerra abierta. Para las personas que crecieron en Occidente después de la Segunda Guerra Mundial , esta noción puede parecer descabellada. El psicólogo Steven Pinker ha popularizado la afirmación de que la violencia, incluso entre estados, lleva mucho tiempo en declive. Sin embargo, el análisis posterior del politólogo Bear Braumoeller y otros ha complicado sustancialmente el panorama. Los investigadores han sugerido que la intensidad del conflicto parece seguir lo que se conoce como una «ley de poder», lo que significa que después de un interludio de relativa paz, es muy posible que la guerra regrese en una encarnación aún más mortal. Cálculos del informático Aaron Clauset han indicado que la “larga paz” que ha seguidoLa Segunda Guerra Mundial tendría que durar otro siglo antes de que constituyera una evidencia significativa de una disminución real a largo plazo de la guerra. Braumoeller afirmó que «no es nada improbable que ocurra otra guerra que superaría a las dos Guerras Mundiales en letalidad durante su vida», y señaló que en la conclusión de su libro sobre el tema «consideró brevemente escribir: ‘Estamos todos van a morir’, y dejándolo así».

Evitar el riesgo de la Tercera Guerra Mundial y al mismo tiempo lograr innovaciones sin precedentes en la gobernanza internacional es una tarea difícil. Pero nos guste o no, ese es el desafío al que nos enfrentamos.

INNOVAR PARA SOBREVIVIR

Una respuesta a este desalentador desafío es la retirada. Si es tan difícil gobernar de manera segura las tecnologías emergentes, argumentan algunos, entonces ¿por qué no nos abstenemos de inventarlas en primer lugar? Los miembros del movimiento de “decrecimiento” adoptan precisamente esta postura, denunciando el crecimiento económico y el progreso tecnológico como los principales culpables de la alienación, la destrucción ambiental y todo tipo de otros daños. En 2019, 11 000 científicos de más de 150 países firmaron una carta abierta exigiendo que la población mundial “se estabilice e, idealmente, se reduzca gradualmente” y que los países desvíen sus prioridades “del crecimiento del PIB”.

A pesar de su atractivo intuitivo, esta respuesta es poco realista y peligrosa. No es realista porque simplemente no logra comprometerse con la interdependencia de los estados en el sistema internacional. Incluso si los países del mundo se unieran temporalmente para detener la innovación, tarde o temprano alguien reanudaría la búsqueda de tecnología avanzada.

Sea como fuere, el estancamiento tecnológico no es deseable de todos modos. Para ver por qué, tenga en cuenta que las nuevas tecnologías pueden tanto exacerbar como reducir el riesgo. Una vez que se ha introducido un nuevo peligro tecnológico, como las armas nucleares, los gobiernos pueden requerir tecnologías adicionales para gestionar ese riesgo. Por ejemplo, la amenaza de las armas nucleares para la supervivencia de la especie humana se reduciría considerablemente si, durante un posible invierno nuclear, las personas pudieran producir alimentos sin la luz del sol o si los sistemas de alerta temprana pudieran distinguir de manera más confiable entre misiles balísticos intercontinentales y pequeños cohetes científicos. Pero si las sociedades detienen el progreso tecnológico por completo, pueden surgir nuevas amenazas tecnológicas que no se pueden contener porque no se han dado los pasos correspondientes en defensa. Por ejemplo, una amplia variedad de actores pueden crear patógenos peligrosos sin precedentes en un momento en que las personas no han progresado mucho en la detección temprana y la erradicación de nuevas enfermedades.

El statu quo, en otras palabras, ya está fuertemente minado con posibles catástrofes. Y en ausencia de medidas defensivas, las amenazas de la naturaleza podrían eventualmente conducir a la extinción humana como lo han hecho con muchas otras especies: para sobrevivir a su máximo potencial, los seres humanos necesitarán aprender a realizar hazañas tales como desviar asteroides y luchar rápidamente contra nuevos pandemias _ Deben evitar el destino de Ícaro, pero aun así volar.

El desafío es continuar cosechando los frutos del avance tecnológico mientras se protege a la humanidad contra sus desventajas. Algunos expertos se refieren a esto como “desarrollo tecnológico diferencial”, con la idea de que si las personas no pueden evitar que ocurran accidentes o tecnologías destructivas en primer lugar, pueden, con previsión y una planificación cuidadosa, al menos intentar desarrollar tecnologías beneficiosas y protectoras. Primero las tecnologías.

Ya estamos en un juego de lo que Richard Danzig, el exsecretario de Marina de EE. UU., ha llamado “ruleta tecnológica”. Aún no se ha disparado ninguna bala, pero eso no cambia lo arriesgado que es el juego. Hay muchas más vueltas para apretar el gatillo en el futuro: un accidente grave y quizás fatal es inevitable a menos que nuestra especie cambie el juego.

LO QUE LE DEBEMOS AL FUTURO

Hasta ahora, los cambios de juego han sido escasos. Dado lo que está en juego, hasta la fecha las sociedades han hecho escandalosamente poco para proteger su futuro. Considere, por ejemplo, la Convención de Armas Biológicas, que prohíbe el desarrollo, almacenamiento y adquisición de armas biológicas. El experto en seguridad nacional Daniel Gerstein lo describió como “el tratado de control de armas más importante del siglo XXI”, pero carece de un mecanismo de verificación y su presupuesto se ve eclipsado por el de la Met Gala. Como si esto no fuera suficiente farsa, la BWC se esfuerza por recaudar incluso las escasas contribuciones que se le deben: un informe de 2018 del presidente de la convención lamentó el “estado precario y cada vez peor de la situación financiera de la BWC. . . debido a la prolongada falta de pago de las contribuciones señaladas por parte de algunos Estados Partes”.

La gestión de riesgos no biológicos tampoco inspira confianza. La investigación destinada a prevenir la pérdida de control sobre los sistemas de inteligencia artificial sigue siendo una fracción minúscula de la investigación general de IA . Y los militares están utilizando armas autónomas letales en el campo de batalla, mientras que los esfuerzos para limitar tales sistemas de armas se han estancado durante años en la ONU. La situación interna no se ve mucho mejor: menos del uno por ciento del presupuesto de defensa de EE. UU. se dedica a la biodefensa, y la mayor parte se destina a defenderse de armas químicas como el ántrax. Incluso después del COVID-19 mató a una de cada 500 personas en el mundo e infligió $ 16 billones en daños económicos solo en los Estados Unidos, el Congreso no pudo aceptar proporcionar $ 15 mil millones modestos para reforzar la preparación para una pandemia.

Este tipo de reducción de riesgos está tan descuidado que abundan las oportunidades para un cambio positivo. Una historia de éxito de la mitigación del riesgo existencial es el programa Spaceguard de la NASA. A un costo de menos de $5 millones por año, entre su inicio en 1998 y 2010, los científicos rastrearon más del 90 por ciento de los asteroides que amenazan la extinción, en el proceso aumentando la precisión de sus predicciones y reduciendo la mejor estimación del riesgo de que uno golpeará la tierra por un factor de diez. Considere también que durante la pandemia de COVID-19, el gobierno de EE. UU. gastó $ 18 mil millones en Operation Warp Speed ​​para acelerar el desarrollo de vacunas. El programa resultó en vacunas seguras y efectivas que los Estados Unidos y otros países pudieron comprar a un precio que constituía una pequeña fracción de los beneficios sociales de las vacunas, que se ha estimado en decenas de billones de dólares. El economista Robert Barro ha estimado que entre septiembre de 2021 y febrero de 2022, estas vacunas salvaron vidas estadounidenses a un costo de entre $55 000 y $200 000 cada una, más de 20 veces por encima del umbral de rentabilidad que las políticas que salvan vidas generalmente deben alcanzar.

Una manifestación sobre el cambio climático en Londres, septiembre de 2019
Una manifestación sobre el cambio climático en Londres, septiembre de 2019 Hannah McKay / Reuters

Si los mejores y más brillantes del mundo dan un paso al frente y los gobiernos o el sector privado brindan financiamiento, podemos lograr éxitos aún más impresionantes. Por ejemplo, aunque aún debe superar importantes obstáculos técnicos, la secuenciación metagenómica generalizada de las aguas residuales ayudaría a detectar nuevas enfermedades en una etapa en la que aún pueden contenerse y erradicarse. El Observatorio de Ácidos Nucleicos, con sede en el Instituto Tecnológico de Massachusetts, persigue precisamente esta visión. Los sectores público y privado también deberían desarrollar mejores equipos de protección personal e investigar más sobre tecnología de esterilización como Far UVC, un proceso de radiación ionizante que, si tiene éxito, podría ofrecer una defensa casi universal contra patógenos e instalarse en cualquier edificio. En cuanto a la inteligencia artificial, la investigación destinada a hacer que los sistemas sean seguros y fiables debe multiplicarse por diez. El hilo conductor de medidas como estas es el énfasis en las estrategias defensivas que no crean ni aumentan otros riesgos por sí mismas.

El progreso también es posible en otros dominios. La recopilación y el análisis de inteligencia dirigidos a las fuentes conocidas de riesgos a gran escala serán fundamentales. Y aunque lograr una certeza completa es imposible (como bromeó una vez el astrónomo Carl Sagan : “Las teorías que involucran el fin del mundo no son susceptibles de verificación experimental, o al menos, no más de una vez”), escanear y pronosticar lo que está en el horizonte puede ayudar a identificar nuevas preocupaciones. En este sentido, es alentador que el informe de Tendencias Globales más reciente del Consejo Nacional de Inteligencia incluyera una discusión sobre el concepto de riesgo existencial, llamando al “desarrollo de estrategias resilientes para sobrevivir”.

Más gobiernos, instituciones y empresas deben tomar en serio estas ideas. La reforma regulatoria también será importante. En Evitar la catástrofe , Cass Sunstein, ex jefe de la oficina reguladora de la Casa Blanca, mostró cómo el enfoque actual del gobierno para el análisis de costo-beneficio no puede dar cuenta suficientemente de los posibles riesgos catastróficos. Sunstein abogó por lo que llamó el «principio maximin»: frente a riesgos suficientemente extremos, y la extinción humana ciertamente califica como tal, los gobiernos deben concentrarse en eliminar los peores resultados. Da la casualidad de que la Casa Blanca actualmente está modernizando su marco para revisar la regulación. Debería aprovechar esta oportunidad para hacer que su enfoque para hacer frente a los riesgos de daños extremos de baja probabilidad se ajuste al siglo XXI, ya sea adoptando el principio maximin de Sunstein o algo similar que tome en serio los riesgos catastróficos globales.

Fukuyama profetizó “siglos de aburrimiento al final de la historia”. Nada más lejos del caso. Las tecnologías poderosas y destructivas presentarán un desafío sin precedentes para el sistema político actual. La IA avanzada podría socavar el equilibrio de poder que existe entre los individuos y los estados: una fuerza laboral completamente automatizada le daría al gobierno pocas razones para tratar bien a sus ciudadanos; una dictadura que poseyera un ejército de IA y una fuerza policial podría evitar la posibilidad de un levantamiento o un golpe de estado. El gobierno podría usar la perspectiva de una tercera guerra mundial como una razón para expandir el estado y tomar medidas enérgicas contra las libertades individuales, como la libertad de expresión, con el argumento de proteger la seguridad nacional. La posibilidad de armas biológicas de fácil acceso podría utilizarse para justificar la vigilancia universal.

Con el futuro de la humanidad en mente, debemos resistir tales presiones. Debemos luchar para asegurar que tenemos un futuro y que es un futuro que vale la pena tener. El cambio cultural hacia el liberalismo en los últimos tres siglos creó un motor de progreso moral que condujo a la expansión de la democracia , la abolición de la esclavitud y la ampliación de los derechos de las mujeres y las personas de color . Ese motor no se puede apagar ahora. En todo caso, debemos ir mucho más allá en la promoción de la diversidad y la experimentación moral y política. Mirando hacia atrás milenios, los modernos ven las prácticas romanas de esclavización, tortura como entretenimiento y ultrapatriarcado como bárbaras. Quizás las generaciones futuras verán muchas de nuestras prácticas actuales un poco mejor.

Así que debemos caminar sobre la cuerda floja. Debemos asegurarnos de que la cooperación global reduzca los riesgos de una catástrofe global a casi cero mientras se mantiene la libertad y diversidad de pensamiento y estructuras sociales que nos permitirían construir un futuro que los nietos de nuestros nietos nos agradecerían. Contemplar un cambio político a gran escala es desalentador, pero las innovaciones pasadas en la gobernanza, como el sistema de la ONU y la UE , brindan motivos para la esperanza.

No estamos acostumbrados a vernos como una de las primeras generaciones de la historia; tendemos a centrarnos en lo que hemos heredado del pasado, no en lo que podríamos legar al futuro. Esto es un error. Para abordar la tarea que tenemos por delante, debemos reflexionar sobre dónde nos encontramos en el linaje completo de la humanidad. En la actualidad, jugamos imprudentemente, no solo con nuestras vidas y las de nuestros hijos, sino con la existencia misma de todos los que están por venir. Seamos la última generación en hacerlo.