Ciencia

Stephen Hawking advierte que la Inteligencia Artificial puede acabar con la humanidad

Reafirmando sus declaraciones de hace 6 meses, Stephen Hawking vuelve a expresar su preocupación sobre el desarrollo descontrolado de los sistemas de Inteligencia Artificial.

Pareciera una nota de broma, pero todo apunta a que Stephen Hawking tiene serias preocupaciones sobre los desarrollos tecnológicos en materia de Inteligencia Artificial, y su principal angustia se centra en los avances que pueda lograr la humanidad en este campo antes de tener siquiera la certeza de controlarla al 100%, para evitar que se torne en contra de nosotros.

En otras palabras, el buen Stephen le tiene miedo a Siri y a Skynet.

De acuerdo con un reporte publicado por Newsweek, Hawking aprovechó su intervención en la conferencia Zeitgeist 2015 de Londres, para advertir sobre los latentes peligros que representa el desarrollo de sistemas de Inteligencia Artificial, en razón de que esta tecnología logrará que las computadoras superen completamente a los humanos en menos de 100 años:

Cuando eso suceda debemos estar seguros que las computadoras tendrán metas en común con las nuestras (…) Nuestro futuro consiste en una carrera entre el creciente poder de la tecnología y la sabiduría con la que la usemos.

En diciembre del año pasado el muchacho también ya había hablado sobre el asunto, declarando que “El desarrollo de una Inteligencia Artificial completa puede marcar el fin de la raza humana“. El punto clave para Hawking reside en quién controlará la Inteligencia Artificial, asegurando que nunca se inviertan los papeles.

La intervención de Hawking nos remite inmediatamente a la situación que se vivió en 2013 con Human Rights Watch y su petición para la inexistencia de “robots asesinos”.

Las declaraciones de este genio pueden parecer paranoides, exageradas o hasta refutables para muchos, pero justo así sucedió con las reacciones provocadas por sus primeros trabajos publicados en el campo de la astrofísica y cosmología.

Tags

Lo Último


Te recomendamos