Stephen Hawking, el desarrollo de la inteligencia artificial

2 mayo, 2014 | adm | TECNOLOGIA

Stephen Hawking

Para el físico Stephen Hawking, el desarrollo de la inteligencia artificial sería un hito para el hombre pero también traería consecuencias inesperadas para la humanidad.

El éxito en la creación de AI sería el evento más grande en la historia humana. Por desgracia, también podría ser el último, a menos que aprendamos cómo evitar los riesgos, según un grupo de científicos reconocidos en el que se destaca Stephen Hawking.

Con el éxito de taquilla de Hollywood Transcendence en las salas de cine, con Johnny Depp y Morgan Freeman muestran visiones enfrentadas sobre el futuro de la humanidad, es tentador descartar la noción de máquinas altamente inteligentes como mera ciencia ficción. Pero esto sería un error, y posiblemente nuestro peor error en la historia.

La investigación de la Artificial-intelligence (AI) (por su siglas en inglés) está avanzando rápidamente.

Los Puntos de referencia recientes, como los coches de auto-conducción, ¡un equipo ganador en Jeopardy! y los asistentes personales digitales Siri, Google ahora y Cortana no son más que síntomas de una carrera armamentista de TI impulsada por las inversiones sin precedentes y basándose en un fundamento teórico cada vez más maduro.

Tales logros probablemente sean pálidos contra lo que traerán los próximos decenios.

Los beneficios potenciales son enormes; todo lo que la civilización tiene que ofrecer es un producto de la inteligencia humana; no podemos predecir lo que podríamos lograr cuando esta inteligencia se vea magnificada por las herramientas que el AI puede ofrecer, como la erradicación de la guerra, la enfermedad y la pobreza que estarían altas en la lista de cualquiera. El éxito en la creación de AI sería el evento más grande en la historia humana.

Por desgracia, también podría ser el último, a menos que aprendamos cómo evitar los riesgos. En el corto plazo, los ejércitos del mundo están considerando sistemas de armas autónomas que puede elegir y eliminar los blancos; la ONU y Human Rights Watch han abogado por un tratado de prohibición de esas armas.

En el mediano plazo, como subraya Erik Brynjolfsson y Andrew McAfee en The Second Machine Age, la IA puede transformar nuestra economía para traer grandes riquezas y gran dislocación.

A más largo plazo, no habría límites fundamentales de lo que puede lograrse: no hay ley física que impida que las partículas sean organizadas de manera que realicen incluso cálculos más avanzados que los arreglos de las partículas en los cerebros humanos.

Una transición explosiva es posible, a pesar de que podría desarrollarse de manera diferente de la película: como Irving Good se dio cuenta en 1965, las máquinas con inteligencia sobrehumana podrían mejorar en varias ocasiones su diseño aún más, lo que provocaría lo que Vernor Vinge llama una «singularidad» y el personaje de la película de Johnny Depp llama la «trascendencia» (transcendence)

Uno puede imaginar tal tecnología más inteligente que los mercados financieros, haciendo las investigadores para humanos, fuera de la manipulación de los líderes humanos, y el desarrollo de armas que ni siquiera podemos entender.

Considerando que el impacto a corto plazo de la IA depende de quien lo controla, el impacto a largo plazo depende de si se puede controlar en absoluto.

Así, frente a posibles futuros de los beneficios y riesgos incalculables, los expertos están, sin duda haciendo todo lo posible para garantizar el mejor resultado, ¿no? Errado. Si una civilización alienígena superior nos enviara un mensaje diciendo: «Vamos a llegar en un par de décadas», podríamos simplemente responder: ¿»Bueno, llámenos cuando lleguen aquí – vamos a dejar las luces encendidas»?

Probablemente no – pero esto es más o menos lo que está sucediendo con la IA. Aunque nos enfrentamos potencialmente el mejor o peor que le ha pasado a la humanidad en la historia, poca investigación seria se dedica a estos temas fuera de los institutos sin fines de lucro, como el Cambridge Centre for the Study of Existential Risk, the Future of Humanity Institute, the Machine Intelligence Research Institute, and the Future Life Institute.

Todos nosotros debemos preguntarnos qué podemos hacer ahora para mejorar las posibilidades de aprovechar los beneficios y evitar los riesgos.

Stephen Hawking es el director de investigación en el Departamento de Matemáticas Aplicadas y Física Teórica en Cambridge y un ganador del Premio de Física Fundamental 2012 por su trabajo sobre la gravedad cuántica.

Stuart Russell es profesor de ciencias informáticas en la Universidad de California, Berkeley y co-autor de «Inteligencia Artificial: Un enfoque moderno ‘. Max Tegmark es un profesor de física en el Instituto Tecnológico de Massachusetts (MIT) y el autor de ‘Nuestro Universo Matemático’.

Frank Wilczek es profesor de física en el MIT y premio Nobel 2004 por su trabajo en la fuerza nuclear fuerte.

www.independent.co.uk

TP

¿Qué te parece?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *