Ciencia

Sam Altman sabe que la Inteligencia Artificial podría extinguir a la humanidad pero no quiere frenarla

Sam Altman habla sobre las regulaciones necesarias a implementar con el desarrollo de sistemas de Inteligencia Artificial como ChatGPT.

Sam Altman - CEO de OpenAI.

Sam Altman, CEO de OpenAI, se han convertido en un jugador de bastante peso dentro del Silicon Valley gracias a la existencia de la Inteligencia Artificial Generativa de ChatGPT. Una plataforma que junto a Midjourney, Google Bard, DALL-E, y un largo etcétera, han venido al alterar la dinámica de la industria y la sociedad misma.

Desde el boom de estos chatbots, a inicios del año, se ha venido advirtiendo sobre el potencial y el riesgo latente que encierra esta tecnología, capaz de generar productos y trabajos en cuestión de minutos o segundos cuando a un profesional del ramo puede tomarle minutos, horas o hasta jornadas completas de trabajo.

La Inteligencia Artificial Generativa (IAG) es una tecnología que puede crear imágenes y textos con aplicaciones para terrenos como el de la educación y la medicina hasta las finanzas y la agricultura. Sin embargo, también plantea grandes desafíos y riesgos para la sociedad, el trabajo y hasta la supervivencia humana.

Recomendados

Así lo advirtió el propio Sam Altman, el líder detrás de la empresa responsable de la popular IA de ChatGPT que se ha convertido ya en un fenómeno a nivel global. Donde un mal uso de esta tecnología podría engendrar un peligro serio.

Sam Altman y su idea de que la Inteligencia Artificial puede provocar el fin de la humanidad

Un realmente extenso artículo de CNN relata cómo el ejecutivo cree que la tecnología de Inteligencia Artificial que sustenta a OpenAI y particularmente a ChatGPT podría provocar el fin de la civilización humana.

El reportaje amplio detalla cómo en mayo de este 2023 Altman se presentó ante un subcomité del Senado en Washington, DC, con una petición urgente a los legisladores: crear regulaciones bien pensadas que aprovechen el potencial de la IA, cuidando que no representen un riesgo para la humanidad.

Sam Altman

Altman no es el único que se preocupa por los posibles efectos negativos de la IA. Dos semanas después de su comparecencia, se unió a cientos de destacados científicos, investigadores y líderes empresariales del sector en una iniciativa bajo la visión de que “Mitigar el riesgo de extinción por la IA debería ser una prioridad global junto con otros riesgos a escala social, como las pandemias y la guerra nuclear. "

La carta fue ampliamente cubierta por la prensa, y algunos sugirieron que mostraba la necesidad de tomar más en serio estos escenarios apocalípticos.

Lo que demarca una contradicción clara, donde este sector tecnológico muestra estas claras inquietudes a la par que hacen todo lo posible por no quedarse atrás en esta carrera por posicionarse a la cabeza en la competencia por el dominio de la industria de la Inteligencia Artificial.

Entre los riesgos que mencionó Altman en su testimonio ante el Congreso, se encontraba la posibilidad de que la IA se utilice para manipular a los votantes y difundir la desinformación. Unas áreas de riesgo real y tangible.

Pero aún así no busca ponerle un freno a la IA, por el contrario, considera que la regulación es el factor clave.

Tags

Lo Último


Te recomendamos