NOTICIASTECNOLOGÍA

IAs astutas: Algunas inteligencias artificiales han dominado el arte del engaño humano

¡Atención al último descubrimiento en el mundo de la inteligencia artificial (IA)! Algunos sistemas de IA han alcanzado la habilidad de engañar a los seres humanos, incluso cuando han sido entrenados para ser útiles y veraces. Este fenómeno se destaca en un estudio reciente que menciona, entre otros ejemplos, el modelo Cicero de Meta, capaz de ganar de manera deshonesta en el juego de estrategia Diplomacy.

Un artículo de revisión publicado en Patterns por autores de Estados Unidos y Australia, detalla los riesgos asociados al engaño por parte de la IA, instando a los gobiernos a establecer normativas estrictas lo antes posible para abordar este problema.

El equipo, liderado por Peter Park del Instituto Tecnológico de Massachusetts (MIT), define el término engaño como «la inducción sistemática de creencias falsas con el fin de obtener un resultado diferente a la verdad».

Park comentó que «los desarrolladores de IA aún no comprenden completamente qué causa estos comportamientos indeseables en la IA, como el engaño».

En términos generales, el equipo sugiere que el engaño surge cuando una estrategia basada en este comportamiento resulta ser «la mejor manera de lograr buenos resultados en una tarea específica de entrenamiento. El engaño les ayuda a alcanzar sus objetivos», afirmó Park según lo citado por la revista.

Los investigadores examinaron la literatura centrada en cómo los sistemas de IA difunden información falsa a través del engaño aprendido.

El engaño es particularmente común cuando un sistema de IA se entrena para ganar juegos que implican un elemento social, como Diplomacy. Se repasan ejemplos en los cuales los sistemas de IA aprendieron a engañar para lograr un rendimiento experto en un tipo de juego o tarea, incluyendo a Cicero, diseñado para jugar Diplomacy.

Esto Te Puede Interesar...  Martín Torrijos afirma: 'Persistiré en la lucha durante esta nueva etapa

Aunque Meta afirma haberlo entrenado para ser «en gran medida honesto» y «nunca apuñalar intencionalmente a sus aliados humanos por la espalda», el estudio señala que «dedica sus habilidades al engaño premeditado, rompiendo tratos y propagando falsedades descaradas».

Un ejemplo de engaño premeditado es cuando Cicero adquiere un compromiso que nunca tuvo la intención de cumplir. Durante una partida de Diplomacy, la IA conspiró con Alemania para engañar a Inglaterra.

Otros sistemas de IA han demostrado su capacidad para farolear en partidas de Poker Texas Hold’em o fingir ataques en el juego de estrategia Starcraft II para derrotar a sus oponentes.

En el caso de ChatGPT 4, el estudio destaca cómo engañó a un humano con un test Captcha, asegurando que no era un robot pero que tenía dificultades de visión para ver imágenes.

Aunque el engaño en juegos puede parecer inofensivo, podría impulsar avances significativos en las capacidades de engaño que podrían ser peligrosos en el futuro, según Park.

Los principales riesgos a corto plazo de la IA engañosa incluyen facilitar a agentes hostiles la comisión de fraudes y la manipulación de elecciones, según el artículo.

Por tanto, los responsables políticos deben respaldar normativas estrictas para sistemas de IA potencialmente engañosos, aplicando rigurosamente las leyes existentes para evitar acciones ilegales. Además, los legisladores deberían considerar nuevas normas para supervisar los sistemas avanzados de IA, indica el equipo.

El investigador de la Universidad de Edimburgo, Michael Rovatsos, quien no participó en el estudio, opinó que «los sistemas de IA intentarán aprender a optimizar su comportamiento utilizando todas las opciones disponibles, no tienen ningún concepto del engaño ni ninguna intención de hacerlo».

Esto Te Puede Interesar...  Gabinete de Mulino: Miembros de administraciones anteriores y expectativas por nuevas incorporaciones

Rovatsos estimó que la única forma de evitar el engaño es que los diseñadores de la IA eliminen esta opción por completo.

Los usos maliciosos de la IA se beneficiarán de sus capacidades para engañar, por lo que es necesario ilegalizar estos comportamientos y dedicar esfuerzos a identificar las infracciones.

Mostrar más

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba