MultimediaTECNOLOGÍA

Clara infracción El CEO de YouTube explica por qué OpenAI no debe utilizar vídeos de la plataforma para entrenar Sora

OpenAI no debe utilizar vídeos de la plataforma para entrenar Sora

El ascenso meteórico de OpenAI ha sido un fenómeno destacado en el mundo de la inteligencia artificial, marcado por el lanzamiento de ChatGPT en noviembre de 2022. Sin embargo, la compañía dirigida por Sam Altman no se ha detenido ahí; ha incursionado en el terreno del video con su proyecto Sora. A pesar de las innovaciones y promesas que estas herramientas presentan, un tema candente ha surgido en torno a ellas: la procedencia de los datos utilizados en su entrenamiento. En particular, en el caso de Sora, OpenAI ha sido criticada por su falta de transparencia en este aspecto, limitándose a mencionar que se han empleado datos de acceso público.

La cuestión de los derechos de autor ha surgido como una preocupación fundamental en este debate. Recientemente, Mira Murati, CTO de OpenAI, no pudo confirmar si la compañía había utilizado material de YouTube para entrenar el modelo de Sora. Sin embargo, el CEO de YouTube, Neal Mohan, ha expresado con seguridad que, de haber ocurrido tal situación, OpenAI estaría infringiendo de manera clara los términos de servicio de la plataforma.

En una entrevista reciente con Bloomberg, Mohan destacó la importancia de cumplir con los términos de servicio de YouTube, señalando que los creadores de contenido confían en que sus derechos sean respetados. Aunque no afirmó tener información específica sobre el uso de YouTube por parte de OpenAI, enfatizó que ciertos aspectos del contenido de la plataforma, como los títulos de los videos o los nombres de los canales, están sujetos al web scraping para mejorar la visibilidad en los motores de búsqueda. Sin embargo, esto no otorga permiso para la descarga de videos o transcripciones.

(Leer Más: El Xiaomi SU7 domina también en autonomía).

El enfoque de OpenAI en el entrenamiento de sus modelos de IA ha sido objeto de controversia en diversas ocasiones. Un ejemplo reciente es la demanda presentada por The New York Times contra Microsoft y OpenAI por el presunto uso de millones de sus artículos para el entrenamiento de modelos de IA. Esta demanda es solo una entre muchas que han surgido en el panorama actual.

Este escenario ha llevado a OpenAI, respaldada por Microsoft, a buscar acuerdos con importantes grupos editoriales para obtener acceso legítimo a sus datos. Entre los acuerdos más notables se incluyen alianzas con Prisa Media (que engloba a medios como El País, As o Cinco Días), el periódico francés Le Monde y el banco de imágenes Shutterstock.

El dilema ético y legal en torno al uso de datos para el entrenamiento de modelos de IA es un tema que continúa generando debate en la comunidad tecnológica y legal. Por un lado, la disponibilidad de datos públicos ha permitido avances significativos en el desarrollo de la inteligencia artificial, pero por otro lado, la falta de claridad en cuanto a los derechos de autor y la propiedad intelectual plantea serias preocupaciones sobre la ética y la legalidad de las prácticas de algunas empresas, incluida OpenAI.

El acceso a datos de alta calidad es fundamental para el entrenamiento efectivo de modelos de IA, y las empresas están constantemente buscando fuentes legítimas y éticas para obtenerlos. Sin embargo, este proceso debe realizarse con transparencia y respeto hacia los derechos de los creadores de contenido y los propietarios de datos.

En el caso específico de OpenAI y su proyecto Sora, la compañía se enfrenta a la presión de abordar estas preocupaciones y proporcionar una mayor claridad sobre la procedencia de los datos utilizados en el entrenamiento del modelo. Además, debe trabajar en estrecha colaboración con plataformas como YouTube para garantizar el cumplimiento de los términos de servicio y evitar posibles infracciones de derechos de autor en el futuro.

La transparencia y la responsabilidad son elementos clave en el desarrollo ético de la inteligencia artificial, y las empresas como OpenAI tienen la responsabilidad de actuar con integridad y respeto hacia todos los actores involucrados en el ecosistema de datos y tecnología. En última instancia, solo a través de prácticas éticas y transparentes se podrá construir un futuro en el que la IA beneficie a la sociedad en su conjunto, respetando al mismo tiempo los derechos y valores fundamentales.

Mostrar más

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba