5 amenazas para la existencia de la humanidad

3 junio, 2014 | adm | INSÓLITO

amenazas para la existencia de la humanidad

El investigador y científico Anders Sandberg, presenta 5 amenazas para la existencia de la humanidad en su artículo que se ha publicado en el portal ‘The Raw Story’, señalando que la gente ha estado hablando sobre el apocalipsis durante milenios, pero pocos buscan como evitarlo y muy por el contrario, en el último siglo se ha descubierto o creado nuevos riesgos para la existencia.

Aquí están las cinco mayores amenazas para la existencia humana:

En el bullicio diario de la «crisis» actual que enfrenta la humanidad, nos olvidamos de las muchas generaciones que esperamos están aún por venir. No aquellos que vivirán dentro de 200 años, pero aquellos que lo harán en 1.000 o 10.000 años.

Uso la palabra «esperanza», porque nos enfrentamos a riesgos, llamados riesgos existenciales, que amenazan con acabar con la humanidad. Estos riesgos no son sólo por grandes catástrofes, sino por los desastres que podrían poner fin a la historia.

Sin embargo, no todo el mundo ha pasado por alto el futuro a largo plazo. Místicos como Nostradamus han intentado regularmente calcular el fin del mundo. HG Wells trató de desarrollar una ciencia de la predicción y representando el futuro lejano de la humanidad en su libro “La máquina del tiempo”. Otros escritores construyeron otros futuros a largo plazo para advertir, divertir o especular.

Pero estos pioneros o futurólogos no han cambiado el futuro de la humanidad. No había mucho que los seres humanos, en su lugar podrían haber hecho para salvarnos de una crisis existencial o incluso provocar una.

Estamos en una posición más privilegiada en la actualidad. La actividad humana ha estado dando forma de manera constante el futuro de nuestro planeta. Y a pesar de que estamos muy lejos de controlar los desastres naturales, estamos desarrollando tecnologías que pueden ayudar a mitigar, o al menos, tratar con ellos.

Futuro imperfecto

Sin embargo, estos riesgos siguen siendo poco estudiados. Hay una sensación de impotencia y fatalismo acerca de ellos. La gente ha estado hablando del apocalipsis durante milenios, pero pocos han tratado de evitarlos.

Los seres humanos también están malamente haciendo algo acerca de los problemas que no han ocurrido aún (en parte debido a la heurística de disponibilidad – la tendencia a sobreestimar la probabilidad de eventos que ya conocemos, y subestimar los eventos que no podemos recordar fácilmente).

Si la humanidad se extingue, por lo menos, la pérdida es equivalente a la pérdida de todos los individuos que viven y la frustración de sus objetivos.

Pero la pérdida sería probablemente mucho mayor que eso. La extinción humana significa la pérdida de sentido generados por las generaciones pasadas, la vida de todas las generaciones futuras (y podría haber un número astronómico de vidas futuras) y todo el valor que podrían haber sido capaces de crear.

Si la conciencia o inteligencia se pierden, puede significar que el valor en sí se convierta en ausente del universo. Esta es una gran razón moral para trabajar duro para evitar que las amenazas existenciales se conviertan en realidad. Y no debemos fallar ni una sola vez en esta búsqueda.

Con esto en mente, he seleccionado lo que considero las cinco mayores amenazas para la existencia de la humanidad. Pero hay advertencias que se deben tener en cuenta, y esta lista no es definitiva.

Durante el último siglo hemos descubierto o creado nuevos riesgos existenciales – supervolcanes fueron descubiertos en la década de 1970, y antes del proyecto Manhattan la guerra nuclear era imposible – por lo que debemos esperar que otros aparezcan.

Además, algunos riesgos que se ven en serio hoy podrían desaparecer a medida que aprendemos más. Las probabilidades también cambian a través del tiempo – a veces porque estamos preocupados por los riesgos y las arreglamos.

Por último, sólo porque algo es posible y potencialmente peligroso, no quiere decir que valga la pena preocuparse.

Hay algunos riesgos que no podemos hacer nada en absoluto, como las explosiones de rayos gamma resultantes de las explosiones de galaxias. Pero si aprendemos que podemos hacer algo, las prioridades cambian. Por ejemplo, con el saneamiento, las vacunas y los antibióticos, la peste pasó de un acto de Dios a la mala salud pública.

1. La guerra nuclear

Mientras que sólo dos armas nucleares se han utilizado en la guerra hasta ahora – en Hiroshima y Nagasaki en la Segunda Guerra Mundial – y los arsenales nucleares están abajo de su pico de llegar en la Guerra Fría, es un error pensar que la guerra nuclear es imposible. De hecho, puede que no sea improbable.

La crisis de los misiles de Cuba estuvo muy cerca de convertirse en nuclear. Si asumimos un tal evento cada 69 años y uno de cada tres posibilidades de que podría llegar a ser una guerra nuclear, la posibilidad de una catástrofe aumenta una de cada 200 por año.

Peor aún, la crisis de los misiles de Cuba sólo fue el caso más conocido. La historia de la disuasión de la Unión Soviética y los US está llena de sustos y errores nucleares peligrosos.

La probabilidad real ha cambiado en función de las tensiones internacionales, pero parece plausible que las posibilidades serían mucho más bajas de una de cada 1.000 por año.

Una guerra nuclear a gran escala entre las grandes potencias mataría a cientos de millones de personas en forma directa o a través de las secuelas – un desastre inimaginable. Pero eso no es suficiente para que sea un riesgo existencial.

Del mismo modo los riesgos de consecuencias a menudo son exagerados – potencialmente mortales a nivel local y a nivel mundial un problema relativamente limitado.

Las Bombas de cobalto se propusieron como un arma del fin del mundo hipotético que mataría a todos con lluvia, pero en la práctica son difíciles y caras de construir. Y ellas son físicamente apenas posibles.

La verdadera amenaza es el invierno nuclear – es decir, el hollín que queda en la estratosfera causando un enfriamiento y secado con los años.

Modernas simulaciones climáticas indican que podría impedir la agricultura en gran parte del mundo durante años. Si se produce esta situación miles de millones morirían de hambre, dejando sólo los sobrevivientes dispersos que podrían ser interceptados por otras amenazas, como la enfermedad.

La principal incertidumbre es de como el hollín se comportaría: en función del tipo de hollín los resultados pueden ser muy diferentes, y actualmente no hay buenas formas de estimar esto.

2. Pandemia producida por la bioingeniería

Las pandemias naturales han matado a más personas que las guerras. Sin embargo, las pandemias naturales son poco probable en las amenazas existenciales: por lo general hay algunas personas resistentes al patógeno, y los descendientes de los sobrevivientes serían más resistentes. La evolución también no favorece a los parásitos que arrasan con sus anfitriones, por lo que la sífilis pasó de ser un asesino virulento a una enfermedad crónica, que se extendió en Europa.

Por desgracia, ahora podemos hacer las enfermedades más desagradables. Uno de los ejemplos más famosos es la introducción de un gen extra el mousepox – la versión de la viruela en el ratón – que se hizo mucho más letal y capaz de infectar a los individuos vacunados. Los últimos trabajos sobre la gripe aviar ha demostrado que el contagio de una enfermedad, es posible fomentarlo deliberadamente.

En este momento el riesgo de que alguien arroje deliberadamente algo devastador es bajo. Pero a medida que la biotecnología mejora y es más barata, más grupos podrán empeorar las enfermedades.

La mayoría del trabajo sobre armas biológicas se ha realizado por los gobiernos que buscan algo controlable, porque acabar con la humanidad no es militarmente útil.

Pero siempre hay algunas personas que quieran hacer las cosas porque pueden. Otros tienen propósitos más elevados. Por ejemplo, el culto Aum Shinrikyo intentó acelerar el apocalipsis usando armas biológicas al lado de su más exitoso ataque con gas nervioso. Algunas personas piensan que la Tierra estaría mejor sin el ser humano, y así sucesivamente.

El número de muertes por brotes de armas biológicas y ataques epidémicos parecen que tiene una distribución de ley de potencia – la mayoría de los ataques tienen pocas víctimas, pero unos pocos matan a muchos.

Dadas las cifras actuales el riesgo de una pandemia mundial de bioterrorismo parece muy pequeño. Pero esto es sólo el bioterrorismo: los gobiernos han matado a mucha más gente que los terroristas con armas biológicas (hasta 400.000 podrían haber muerto desde el programa biowar WWII japonés). Y a medida que la tecnología se vuelve más poderosa en el futuro los patógenos más desagradables se vuelven más fáciles de diseñar.

3. Superinteligencia

La inteligencia es muy poderosa. Un pequeño incremento en la capacidad de resolución de problemas y la coordinación del grupo es por qué dejamos a los otros monos en el polvo.

Ahora la continuación de su existencia depende de decisiones humanas, no en lo que hacen. Ser inteligente es una verdadera ventaja para las personas y las organizaciones, por lo que hay mucho esfuerzo en descubrir formas de mejorar nuestra inteligencia individual y colectiva: desde fármacos potenciadores de la cognición al software de inteligencia artificial.

El problema es que las entidades inteligentes son buenas en el logro de sus objetivos, pero si las metas se fijan mal que puede utilizar su poder para lograr hábilmente extremos desastrosos.

No hay ninguna razón para pensar que la propia inteligencia hará algo para comportarse bien y moralmente. De hecho, es posible demostrar que ciertos tipos de sistemas superinteligentes no obedecen las reglas morales, incluso si fueran verdad.

Aún más preocupante es que al tratar de explicar las cosas a una inteligencia artificial nos encontramos con graves problemas prácticos y filosóficos. Los valores humanos son cosas difusas y complejas que no somos buenos para expresar, e incluso si lo pudiéramos hacer tal vez no entenderían todas las implicaciones de lo que deseamos explicar.

La Inteligencia basada en software puede ir muy rápidamente de estar abajo del humano hasta ser terriblemente poderosa.

La razón es que puede escalar de manera diferente a la inteligencia biológica: se puede correr más rápido en las computadoras más rápidas, las piezas pueden ser distribuidas en más equipos, diferentes versiones probadas y actualizados sobre la marcha, los nuevos algoritmos incorporados que le dan un salto en el rendimiento.

Se ha propuesto que una «explosión de inteligencia» es posible cuando el software se vuelva lo suficientemente bueno para hacer un mejor software.

En caso de que tal salto ocurra habría una gran diferencia en el poder potencial entre el sistema inteligente (o las personas que le indican lo que debe hacer) y el resto del mundo. Esto tiene un claro potencial para el desastre si las metas se fijan mal.

Lo inusual de la super-inteligencia es que no sabemos si las rápidos y potentes explosiones de inteligencia son posibles: quizás nuestra actual civilización en su conjunto está mejorando en sí a la mayor velocidad posible.

Pero hay buenas razones para pensar que algunas tecnologías pueden acelerar las cosas mucho más rápido de lo que las sociedades actuales pueden manejar.

Del mismo modo que no tenemos la manera de cómo serían peligrosas las formas diferentes de super-inteligencias, o qué estrategias de mitigación funcionarían realmente.

Es muy difícil de razonar acerca de la tecnología del futuro que todavía no tenemos, o inteligencias más grandes que nosotros. De los riesgos en esta lista, este es el más probable que sea masivo o simplemente un espejismo.

Esta es un área sorprendentemente insuficientemente investigada. Incluso en los años 50 y 60 cuando la gente estaba muy segura de que la super-inteligencia podría lograrse «en una generación», no se vio mucho en cuestiones de seguridad.

Tal vez ellos no tomaron en serio sus predicciones, pero lo más probable es que sólo lo veían como un problema en el futuro remoto.

4. Nanotecnología

La nanotecnología es el control sobre la materia con precisión atómica o molecular. Esto en sí mismo no es peligroso – pero, sería una muy buena noticia para la mayoría de aplicaciones.

El problema es que, como la biotecnología, el aumento de potencia también aumenta la posibilidad de abusos que son difíciles de defender.

El gran problema no es la infame «plaga gris» de nanomáquinas autorreplicantes que comen todo. Para ello sería necesario un diseño inteligente para este mismo propósito.

Es difícil hacer una réplica de la máquina: la biología actúa mucho mejor en ella, de manera predeterminada. Tal vez algún maniático eventualmente tenga éxito, pero hay un montón de frutas más bajas que cuelgan en el árbol de tecnología destructiva.

El riesgo más evidente es que la fabricación de precisión atómica parece ideal para una rápida, fabricación barata de cosas como armas.

En un mundo en el que cualquier gobierno podría «imprimir» grandes cantidades de armas autónomas o semi-autónomas (incluidas instalaciones para hacer aún más) las carreras de armamentos podrían llegar a ser muy rápidas – y por lo tanto inestables, ya que dar un primer ataque antes de que el enemigo lo haga es una gran ventaja y puede ser tentador.

Las armas también pueden ser pequeñas, las cosas de precisión: un «veneno inteligente» que actúa como un gas nervioso, pero busca a las víctimas, o de sistemas ubicuos «gnatbot» de vigilancia para mantener las poblaciones obedientes parece totalmente posible. Además, puede haber maneras de conseguir la proliferación nuclear y la ingeniería climática en manos de cualquiera que lo desee.

No podemos juzgar la probabilidad de riesgo existencial del futuro de la nanotecnología, pero parece que podría ser potencialmente perjudicial sólo porque nos puede dar todo lo que deseamos.

5. Incógnitas desconocidas

La posibilidad más inquietante es que hay algo por ahí que es muy mortal, y no tenemos ninguna pista sobre ello.

El silencio en el cielo podría ser evidencia de esto. ¿La ausencia de Extraterrestre, es debido a que la vida o la inteligencia son extremadamente raras, o que la vida inteligente tiende a ser aniquilada?

Si hay un futuro gran filtro, debe haber sido observado por otras civilizaciones también, e incluso eso no ayudó.

Cualquiera que sea la amenaza, tendría que ser algo que es casi inevitable, incluso cuando se sabe que está ahí, no importa quién y qué es. No sabemos acerca de cualquier tipo de amenazas (ninguno de los otros en esta lista trabaja como éste), pero podría existir.

Tenga en cuenta que sólo porque algo es desconocido, no significa que no podemos razonar sobre ello. En un trabajo notable Max Tegmark y Nick Bostrom muestran que un cierto conjunto de riesgos debe ser menor que una posibilidad entre mil millones por año, a partir de la edad relativa de la Tierra.

Usted podría preguntarse por qué el cambio climático o impactos de meteoritos se han quedado fuera de esta lista.

El cambio climático, no importa cuánto se le tema, es poco probable que deje todo el planeta inhabitable (pero podría agravar otras amenazas si nuestras defensas se rompen). Los meteoros podrían sin duda acabar con nosotros, pero tendrían que tener muy mala suerte.

La especie de mamífero promedio sobrevive por aproximadamente un millón de años. Por lo tanto, la tasa de extinción natural de fondo es más o menos uno en un millón por año. Esto es mucho menor que el riesgo nuclear de la guerra, que después de 70 años sigue siendo la mayor amenaza para la continuidad de nuestra existencia.

La heurística de disponibilidad nos hace sobrevalorar los riesgos que están a menudo en los medios de comunicación y minimizar los riesgos sin precedentes. Si queremos estar por cerca de un millón de años que tenemos que corregir eso.

La Conversación

Anders Sandberg trabaja en el Instituto para el futuro de la humanidad en la Universidad de Oxford.

Este artículo fue publicado originalmente en The Conversation.

www.rawstory.com

tierrapost.net/

¿Qué te parece?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *