NOTICIASTECNOLOGÍA

Crisis OpenIA:¿La ‘súperalineación’ lleva a una IA incontrolable? Preocupaciones sobre el futuro a largo plazo

Tras una presentación extraordinariamente exitosa, el anuncio de GPT-4o fue seguido por una noticia complicada para OpenAI. La salida de Ilya Sutskever trajo de vuelta el fantasma de la crisis que la empresa sufrió en noviembre. Ahora, vuelven las complicaciones con acusaciones de no cumplir sus promesas en torno a la súperalineación.

Este concepto fue introducido por la empresa para lanzar un equipo dedicado a investigar cómo mantener bajo control una IA súperinteligente. Actualmente, ese equipo está siendo disuelto entre reproches de no haber recibido los recursos prometidos.

¿Por qué es importante?

Esta decisión genera serias dudas sobre las prioridades de OpenAI, una empresa que se fundó con la misión de desarrollar una IA segura y beneficiosa para toda la humanidad. A pesar del exitoso lanzamiento de ChatGPT, parece que ahora se enfoca más en lanzar nuevos productos a toda velocidad.

¿Qué ha ocurrido?

En julio de 2022, OpenAI anunció la creación del equipo de Superalineación. Este equipo estaba co-liderado por el cofundador Ilya Sutskever y el investigador Jan Leike, con el objetivo de «resolver los grandes desafíos técnicos del alineamiento de una súperinteligencia en cuatro años».

Sutskever y Leike anunciaron su dimisión la semana pasada. Sutskever fue protagonista de un intento fallido para despedir al CEO, Sam Altman, en noviembre. Por su parte, Leike criticó duramente a OpenAI, afirmando en X que en los últimos años «la cultura y los procesos de seguridad han quedado en un segundo plano frente a productos brillantes».

Además, al menos otros cinco empleados enfocados en la seguridad de la IA han renunciado o han sido despedidos desde aquel episodio de noviembre, según Vox.

Esto Te Puede Interesar...  EE. UU. suaviza su postura en la disputa comercial con China, aplaza nuevamente la reinstauración de aranceles sobre las GPU

La respuesta de OpenAI

La empresa ha declarado que el trabajo del equipo de Súperalineación estará «integrado más profundamente» en sus otros equipos de investigación y que este cambio comenzó hace semanas. Sam Altman mencionó en X que tienen «mucho por hacer» en seguridad y se comprometió a ello. Greg Brockman, cofundador de la compañía, defendió también en un extenso post en X el enfoque de seguridad de OpenAI, asegurando que están dispuestos a retrasar lanzamientos por este tipo de cuestiones.

Las dudas persisten

CNBC y Wired recogen las acusaciones de varios exempleados de no destinar suficientes recursos computacionales para investigar cómo controlar una IA que llegue a ser más inteligente que los humanos. Algunos exempleados dicen haber perdido la confianza en el liderazgo de Altman y, más concretamente, en su compromiso con un desarrollo responsable de la IA. Otros aseguran estar sujetos a acuerdos de confidencialidad que les impiden criticar abiertamente a la empresa.

La tendencia en la industria

Otras empresas líderes en IA, como Google a principios de año o Meta a finales del pasado, también han reorganizado o disuelto equipos dedicados a la seguridad y la responsabilidad. El argumento principal suele ser que prefieren que este trabajo se lleve a cabo de forma tangencial en la empresa, y no como parte de un área concreta. Sin embargo, los críticos con esta posición argumentan que tener equipos especializados asegura recursos y poder de decisión para estos asuntos.

Mostrar más

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba