TECNOLOGÍA

Los delirios de la IA representan una «amenaza directa» para la ciencia, dicen los expertos

[ad_1]
Descubre qué significa este término y qué consecuencias podría tener en el ámbito científico. La IA es realmente imaginativa cuando dibuja cuál sería su amenaza para la ciencia. Únete a la conversación Si te decimos que la IA es una amenaza, quizás te vengan a la cabeza películas donde la inteligencia artificial es la protagonista. Hoy contamos con maravillosas herramientas de generación de lenguaje, como ChatGPT o Bing Chat, ahora rebautizado como Copilot. Sin embargo, algunos expertos empiezan a advertir de la amenaza que supone la IA para sus respectivos campos. La gran amenaza para la ciencia del IAC Científicos de la Universidad de Oxford han publicado un artículo en la revista Nature Human Behaviour en el que exponen los miedos e incertidumbres asociados al uso de la IA en la ciencia. Estamos hablando de la tendencia de los chatbots a responder todo tipo de preguntas, a veces incluso utilizando respuestas falsas. ¡Alerta de comunicado de prensa! Los grandes modelos de lenguaje plantean un riesgo para la ciencia con respuestas falsas, dicen los expertos en inteligencia artificial de Oxford @bmittelstadt @SandraWachter5 @crussl @oiioxford @oxsocsci @UniofOxford 1/3 #LLMs https://t.co/O6XCgBnFop— Oxford Internet Institute (@oioxford) Noviembre 20, 2023 Estas respuestas se conocen mejor como alucinaciones o delirios en la comunidad tecnológica. Según los investigadores, una de las principales razones por las que las IA emiten datos falsos es porque las fuentes a las que recurren contienen datos falsos, así como opiniones o información no verificadas. Esto tiene una explicación completamente lógica, como señala Brent Mittelstadt, uno de los autores del estudio: Las personas que utilizan LLM a menudo “antropomorfizan” la tecnología (…) Esto se debe, en parte, al diseño de grandes lenguajes. modelos como agentes útiles que conversan con los usuarios y responden, aparentemente, a cualquier pregunta de forma segura, con textos bien escritos. El resultado es que los usuarios pueden convencerse fácilmente de que las respuestas son precisas, incluso cuando no están respaldadas por hechos o cuando se les presenta una versión parcial o sesgada de la verdad. Interesante artículo en @TheSun que presenta un nuevo artículo de @oiioxford que se centra en la amenaza que los grandes modelos lingüísticos representan para la ciencia, el artículo fue escrito por @bmittelstadt, @SandraWachter5 y @crussl. Lea el artículo aquí: https://t.co/AXHVuCafPD— Oxford Internet Institute (@oioxford) 22 de noviembre de 2023 Los autores de la investigación sugieren que quienes se dedican a la ciencia den un paso atrás, dado que los LLM no están más lejos. meros portavoces de la llamada verdad online y, además, tienen la curiosa capacidad de inventar conceptos con los que no han sido entrenados. Una de las soluciones propuestas por los científicos de la Universidad de Oxford es utilizar estos modelos de lenguaje como traductores, es decir, proporcionarte información veraz para que puedas realizar tareas como resúmenes o convertir datos en gráficos. De esta forma, el usuario se asegura que los datos que presenta el chatbot en servicio son ciertos y no son una simple ilusión inventada por la inteligencia artificial. Unirse a la conversación

[ad_2]

Mostrar más

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba