IA | Alianza

OpenAI y Axel Springer se asocian para contenido protegido por derechos de autor

OpenAI llega a un acuerdo con Axel Springer para entrenar sus modelos de IA generativa en contenido protegido por derechos de autor

OpenAI, una empresa líder en inteligencia artificial (IA), ha anunciado hoy que ha alcanzado un acuerdo con Axel Springer, propietario de publicaciones como Business Insider y Politico, para entrenar sus modelos de IA generativa en el contenido del editor y agregar artículos recientes publicados por Axel Springer al chatbot ChatGPT de OpenAI, que utiliza IA para generar respuestas de chat.

Este acuerdo marca la segunda vez que OpenAI colabora con una organización de noticias, después de haber anunciado anteriormente que licenciaría parte de los archivos de The Associated Press para el entrenamiento de sus modelos.

A partir de ahora, los usuarios de ChatGPT recibirán resúmenes de "artículos seleccionados" de las publicaciones de Axel Springer, incluyendo historias que normalmente están detrás de un muro de pago. Estos fragmentos irán acompañados de atribución y enlaces a los artículos completos.

A cambio, Axel Springer recibirá pagos de OpenAI cuyo tamaño y frecuencia no se han revelado. El acuerdo tiene una validez de varios años y, aunque no compromete a ninguna de las partes a la exclusividad, Axel Springer ha expresado su apoyo a los proyectos impulsados por IA de OpenAI que se basen en su tecnología.

"Estamos emocionados de haber forjado esta asociación global entre Axel Springer y OpenAI, la primera de su tipo", dijo Mathias Döpfner, CEO de Axel Springer. "Queremos explorar las oportunidades del periodismo potenciado por la IA para llevar la calidad, la relevancia social y el modelo de negocio del periodismo al siguiente nivel".

Esta colaboración ha surgido en un momento en el que las relaciones entre los editores y los proveedores de IA generativa son tensas. Los editores acusan a los proveedores de infringir los derechos de autor y están cada vez más preocupados por el impacto que los modelos generativos tienen en el tráfico de sus sitios web. Por ejemplo, la nueva experiencia de búsqueda de Google, llamada SGE, ha desplazado los enlaces que aparecen en las búsquedas tradicionales más abajo en las páginas de resultados, lo que potencialmente reduce el tráfico a esos enlaces en un 40%.

Además, los editores se oponen a que los proveedores entrenen sus modelos en contenido sin acuerdos de compensación en vigor, especialmente a raíz de informes que indican que gigantes tecnológicos como Google están experimentando con herramientas de IA para resumir noticias. Según una encuesta reciente, cientos de organizaciones de noticias están utilizando código para evitar que OpenAI, Google y otros escaneen sus sitios web en busca de datos de entrenamiento.

En agosto, varias organizaciones de medios, incluyendo Getty Images, The Associated Press, la National Press Photographers Association y The Authors Guild, publicaron una carta abierta en la que pedían más transparencia y protección de los derechos de autor en relación a la IA. En la carta, los firmantes instaron a los responsables políticos a considerar regulaciones que exijan transparencia en los conjuntos de datos de entrenamiento y permitan a las empresas de medios negociar con los operadores de modelos de IA, entre otras sugerencias.

"Las prácticas actuales socavan los modelos de negocio fundamentales de la industria de los medios de comunicación, que se basan en la audiencia (como las suscripciones), la licencia y la publicidad", dice la carta. "Además de violar la ley de derechos de autor, el impacto resultante es reducir significativamente la diversidad de los medios de comunicación y socavar la viabilidad financiera de las empresas para invertir en cobertura mediática, reduciendo aún más el acceso del público a información de alta calidad y confianza".

Este acuerdo entre OpenAI y Axel Springer podría sentar un precedente para futuras colaboraciones entre empresas de IA y editores de noticias, en un esfuerzo por encontrar un equilibrio entre el uso justo y la protección de los derechos de autor en la era de la IA generativa.


Podcast El Desván de las Paradojas
Publicidad


Otras noticias • IA

Controversia IA

Controversia por video de Bernie Sanders y chatbot Claude

El video de Bernie Sanders con el chatbot Claude ha generado controversia al mostrar cómo los chatbots pueden reflejar creencias de sus usuarios, lo que...

Colaboración energética

Sam Altman deja Helion, abre puerta a colaboración con OpenAI

Sam Altman ha dejado su puesto en Helion, lo que sugiere una colaboración entre OpenAI y la startup de fusión para optimizar la producción de...

Energía sostenible

Helion Energy y OpenAI negocian acuerdo para energía de fusión

Helion Energy y OpenAI están en conversaciones para un acuerdo que aseguraría a OpenAI el 12,5% de la producción de energía de fusión de Helion....

Ética tecnológica

Anthropic rechaza colaborar con el Pentágono por ética

La empresa de IA Anthropic se niega a colaborar con el Pentágono por preocupaciones éticas sobre el uso de su tecnología en vigilancia y armamento....

Controversia ética

Controversia por lanzamiento de Composer 2 de Cursor

El lanzamiento de Composer 2 por Cursor ha generado controversia al ser considerado una variante de Kimi 2.5 de Moonshot AI. La falta de transparencia...

Tokens IA

Tokens de IA transforman compensación en Silicon Valley, surgen dudas

La compensación en Silicon Valley está evolucionando con la introducción de tokens de IA, que ofrecen a los ingenieros acceso a potencia computacional. Aunque pueden...

Manipulación datos

Delve enfrenta acusaciones de manipulación de datos y falta de transparencia

Delve, una startup de cumplimiento normativo, enfrenta graves acusaciones de manipulación de datos y falta de transparencia. Un post anónimo revela que la empresa proporcionaba...

Optimismo cauteloso

Nvidia genera optimismo, pero Wall Street muestra cautela

El discurso de Jensen Huang, CEO de Nvidia, generó optimismo por innovaciones y proyecciones, pero Wall Street reaccionó con cautela, reflejando incertidumbre sobre la IA...