Elon Musk piensa que la inteligencia artificial sería más peligrosa que las armas nucleares

Elon Musk piensa que la inteligencia artificial sería más peligrosa que las armas nucleares

Compartió estos pensamientos en su cuenta de Twitter después de leer el libro Superintelligence.

Cada vez que Elon Musk, CEO de Space X y Tesla Motors, toma la palabra para dar su punto de vista sobre algún tema tecnológico de relevancia se crea un eco impresionante que obliga a detenerse y poner mucha atención.

En esta ocasión, Musk compartió en su cuenta de Twitter lo que él piensa sobre el desarrollo de la inteligencia artificial (IA) después de leer el libro Superintelligence de Nick Bostrom. En especial, señaló el peligro que podría representar una IA de inteligencia superior a la raza humana:

Vale la pena leer Superintelligence de Bostrom. Necesitamos ser súpercuidadosos con la IA. Potencialmente más peligroso que las armas nucleares […] Esperemos no ser el gestor de arranque biológico para una superinteligencia digital. Por desgracia, esto cada vez es más probable.

 

Para nosotros los mortales, el libro Superintelligence estará disponible hasta el 3 de septiembre. Según su sinópsis, en dicho documento se plantea la posibilidad de la creación de una inteligencia artificial poderosa pero con el respectivo cuidado para que no represente una amenaza para nuestra especie:

¿Será posible construir una semilla de inteligencia artificial, de diseñar condiciones iniciales para crear una explosión de inteligencia en donde podamos sobrevivir?¿Cómo se podría lograr una detonación controlada?

Este libro profundamente ambicioso y original deconstruye un largo camino de difícil terreno intelectual. Después de un viaje absolutamente fascinante que nos lleva a las fronteras del pensamiento acerca de la condición humana y el futuro de la vida inteligente, encontramos en el trabajo de Nick Bostrom nada menos que una reconceptualización de la tarea esencial de nuestro tiempo.

La reciente inversión de Elon Musk en la compañía Vicarious podría ser resultado justamente de esa necesidad de vigilancia y control para la creación de inteligencia artificial.