Internet

Sam Altman liderará el comité de seguridad que vigilará los pasos... De Sam Altman

¿Compromiso real con la seguridad de la inteligencia artificial o solo un lavado de imagen?

Sam Altman ha regresado oficialmente como director ejecutivo de OpenAI.| Foto: Steve Jennings
Sam Altman ha regresado oficialmente como director ejecutivo de OpenAI.| Foto: Steve Jennings Sam Altman liderará el comité de seguridad que vigilará los pasos... De Sam Altman

Sam Altman se ha convertido en una figura controvertida en el mundo de la inteligencia artificial. Su visión ambiciosa para el futuro de la inteligencia artificial, junto con algunas decisiones cuestionables, lo han puesto en el centro de atención por diversas polémicas. Particularmente, ha sido criticado por su visión “pro-riesgo” de la IA, donde aboga por un desarrollo rápido y sin restricciones, incluso si esto implica riesgos potenciales.

PUBLICIDAD

Sus detractores argumentan que esta postura podría llevar a la creación de tecnologías peligrosas que podrían ser utilizadas con fines maliciosos. No por nada, las polémicas que lo rodean también han generado dudas sobre su liderazgo y su enfoque hacia el desarrollo de la inteligencia artificial.

Es por esto que la disolución del equipo de “súperalineación” de OpenAI, enfocado en los riesgos existenciales de la IA, ha generado dudas sobre el compromiso real de la empresa con un desarrollo responsable de esta tecnología. Así que, en un intento por abordar estas preocupaciones, la empresa ha creado un nuevo comité de seguridad y protección. ¿El problema? Lo lidera el mismísimo Altman.

Un comité de seguridad liderado por Altman: ¿Qué puede salir mal?

El nuevo comité estará presidido por Altman y contará con tres consejeros: Bret Taylor, Adam d’Angelo y Nicole Seligman. Su principal tarea durante los próximos 90 días será evaluar y desarrollar los procesos y las salvaguardas de seguridad de OpenAI. Tras este período, presentarán sus recomendaciones al consejo de la empresa para su implementación. El comité también contará con la participación de expertos en tecnología, ciberseguridad y políticas públicas.

Las preocupaciones sobre el compromiso de OpenAI con la seguridad de la IA se basan en varios eventos recientes:

  • La disolución del equipo de “súperalineación” y la dimisión de sus dos líderes.
  • La afirmación de Ilya Sutskever, exlíder del equipo, sobre cómo “la cultura y los procesos de seguridad han pasado a un segundo plano frente a productos brillantes”.
  • El intento de Sutskever de destituir a Altman por su falta de honestidad, que resultó en la salida de Sutskever de la empresa.
  • La salida de otros investigadores debido a discrepancias con el enfoque cada vez más comercial de OpenAI.
  • La revocación de la política de la empresa de retirar el capital social a los exempleados que no firmaran un NDA restrictivo para evitar críticas.

Cómo no: Las dudas persisten

El anuncio del nuevo comité de seguridad llega en medio de una ola de escándalos y noticias preocupantes. Que Altman, el mismo que ha sido cuestionado por su liderazgo y las prioridades de la empresa, esté al frente de este comité no ayuda a disipar las dudas ni a calmar las sospechas.

Con el lanzamiento de GPT-5 en el horizonte, la pregunta sobre el compromiso real de OpenAI con la seguridad de la IA sigue sin respuesta. La creación de este nuevo comité podría ser un paso en la dirección correcta, pero solo el tiempo dirá si realmente se traduce en un cambio de prioridades y una cultura de seguridad más sólida dentro de la empresa más influyente del mundo de la IA.

PUBLICIDAD

Tags


.

Lo Último