TECNOLOGÍANOTICIAS

Exempleados de OpenAI y Google advierten de posibles riesgos con la IA que podrían amenazar la humanidad

El desarrollo de modelos de inteligencia artificial (IA) cada vez más sofisticados y potentes es un tema candente de debate en la actualidad. Un grupo compuesto por ex empleados y trabajadores actuales de OpenAI y Google DeepMind ha iniciado una nueva discusión al afirmar que las empresas están ocultando los peligros de la IA que podrían poner en riesgo la supervivencia humana.

En una carta pública titulada A Right to Warn about Advanced Artificial Intelligence (Un derecho a advertir sobre la inteligencia artificial avanzada), difundida recientemente, se destaca la preocupación por los riesgos inherentes al avance de esta tecnología. Este documento, que ya está generando un considerable revuelo, ha sido firmado por 13 personas, algunas de las cuales han optado por mantener el anonimato.

Transparencia y riesgos en la IA

Los firmantes sostienen que, aunque la inteligencia artificial tiene el potencial de ofrecer beneficios sin precedentes a la humanidad, también presenta riesgos extremadamente altos. Señalan que estos peligros han sido reconocidos tanto por las compañías que desarrollan la tecnología como por expertos y gobiernos de todo el mundo, pero que existe una alarmante falta de transparencia sobre estos riesgos.

Ejemplos de riesgos reconocidos por la industria

En su misiva, los ex y actuales trabajadores de OpenAI y Google DeepMind mencionan varios ejemplos de los peligros de la IA que las propias empresas han reconocido. El escenario más extremo incluye la posible extinción humana debido a la pérdida de control sobre los sistemas de inteligencia artificial autónomos. Además, se mencionan problemas más inmediatos y tangibles, como la desinformación, la manipulación de la opinión pública y el agravamiento de las desigualdades sociales existentes.

Esto Te Puede Interesar...  Cómo la Estafa del "Hijo en Apuros" se Convierte en un Golpe Maestro en WhatsApp

Sin embargo, el punto más crítico de la carta se centra en la información que no se divulga al público. Los expertos afirman que las empresas tienen acceso a una gran cantidad de datos sobre cómo funcionan sus sistemas de IA, qué medidas de seguridad se aplican y los riesgos a los que se enfrenta la sociedad al utilizarlos. A pesar de esto, debido a la falta de obligaciones de informar a la sociedad civil, estas empresas optan por ocultar esta información. Incluso, lo que reportan a las autoridades es mínimo.

«Las empresas de IA poseen una cantidad sustancial de información no pública sobre las capacidades y limitaciones de sus sistemas, la idoneidad de sus medidas de protección y los niveles de riesgo de diferentes tipos de daños. Sin embargo, actualmente solo tienen obligaciones débiles de compartir parte de esta información con los gobiernos, y ninguna con la sociedad civil. No creemos que se pueda confiar en que vayan a compartirla voluntariamente.»
— Carta abierta de exempleados y actuales trabajadores de OpenAI y Google DeepMind.

Protección para los informantes en la industria de la IA

En este contexto, los autores de la carta piden que empresas como OpenAI, Google DeepMind, Anthropic, Meta y otros actores de la industria de la inteligencia artificial establezcan métodos seguros para que los empleados puedan expresar sus preocupaciones y críticas sin temor a represalias. Los firmantes argumentan que los acuerdos de confidencialidad que las empresas les obligan a firmar son excesivamente restrictivos y que las protecciones actuales para los informantes no son suficientes, ya que están centradas en actividades ilegales, mientras que muchas de las preocupaciones en torno a la IA aún no están reguladas.

Esto Te Puede Interesar...  Google desarrolla un plan para erradicar las llamadas fraudulentas

«Reconocemos que cualquier esfuerzo por informar inquietudes relacionadas con riesgos debe evitar la divulgación innecesaria de información confidencial. Por lo tanto, una vez que exista un proceso adecuado para plantear inquietudes de forma anónima al directorio de la empresa, a los reguladores y a una organización independiente adecuada con experiencia relevante, aceptamos que las inquietudes se planteen inicialmente a través de dicho proceso. Sin embargo, mientras no exista dicho proceso, los empleados actuales y anteriores deben conservar la libertad de informar sus inquietudes al público.»
— Carta abierta de exempleados y actuales trabajadores de OpenAI y Google DeepMind.

Apoyos y contexto de los firmantes

De los 13 firmantes, siete son ex empleados de OpenAI, mientras que otros cuatro son empleados actuales de la startup liderada por Sam Altman. Los dos restantes incluyen a un actual empleado y a un ex integrante de Google DeepMind. La carta también cuenta con el respaldo de otros expertos prominentes, incluyendo a Geoffrey Hinton, conocido como el «padrino de la inteligencia artificial». Hinton, una de las voces más respetadas del sector, trabajó en Google durante una década antes de renunciar a mediados de 2023 para expresar abiertamente sus preocupaciones sobre el desarrollo de esta tecnología. Según él, «No deberían avanzar más hasta que sepan si pueden controlarlo.»

Mostrar más

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba