Miles de autores firman una carta instando a los creadores de IA a dejar de robar libros
La importancia de la transparencia en los conjuntos de datos de IA
Los modelos de lenguaje como GPT-4 y Claude son poderosos y útiles, pero los datos en los que se entrenan son un secreto muy bien guardado. El Instituto Allen de Inteligencia Artificial (AI2) tiene como objetivo revertir esta tendencia con un nuevo y enorme conjunto de datos de texto que es gratuito y está abierto a la inspección.
Dolma, como se llama el conjunto de datos, está destinado a ser la base del modelo de lenguaje abierto planificado por el grupo de investigación, conocido como OLMo (Dolma es la abreviatura de "Data to feed OLMo's Appetite"). Según los investigadores de AI2, si el modelo está destinado a ser utilizado y modificado de forma gratuita por la comunidad de investigación de IA, también debería serlo el conjunto de datos que utilizan para crearlo.
El problema de la opacidad en los conjuntos de datos de IA
Aunque empresas como OpenAI y Meta publican algunas de las estadísticas vitales de los conjuntos de datos que utilizan para construir sus modelos de lenguaje, mucha de esa información se trata como propiedad exclusiva. Aparte de las consecuencias conocidas de desalentar el escrutinio y la mejora a gran escala, se especula que este enfoque cerrado se debe a que los datos no se obtuvieron de manera ética o legal: por ejemplo, que se incluyeron copias pirateadas de libros de muchos autores.
La iniciativa de AI2 para fomentar la transparencia
AI2 está desarrollando Dolma como una alternativa a esta opacidad. En un gráfico creado por AI2, se puede observar que los modelos más grandes y recientes solo proporcionan parte de la información que un investigador probablemente querría conocer sobre un conjunto de datos determinado. ¿Qué información se eliminó y por qué? ¿Qué se consideró texto de alta o baja calidad? ¿Se eliminaron adecuadamente los detalles personales?
AI2 y su modelo de lenguaje optimizado para la ciencia
Dolma de AI2 no es el primer intento de crear un conjunto de datos abierto, pero es el más grande hasta ahora (3 mil millones de tokens, una medida nativa de IA para el volumen de contenido) y, según afirman, el más sencillo en términos de uso y permisos. Utiliza la "Licencia ImpACT para artefactos de riesgo medio", de la cual se pueden ver los detalles aquí. Básicamente, requiere que los usuarios potenciales de Dolma:
- Proporcionen información de contacto y casos de uso previstos.
- Revelen cualquier creación derivada de Dolma.
- Distribuyan esas creaciones derivadas bajo la misma licencia.
- Se comprometan a no aplicar Dolma a áreas prohibidas, como la vigilancia o la desinformación.
Para aquellos que se preocupan de que, a pesar de los mejores esfuerzos de AI2, algunos de sus datos personales hayan llegado a la base de datos, hay un formulario de solicitud de eliminación disponible aquí. Es para casos específicos, no solo una solicitud general de "no me uses".
Acceso a Dolma y su importancia para la comunidad de investigación de IA
Si todo esto te parece bien, el acceso a Dolma está disponible a través de Hugging Face. AI2 espera que este enfoque abierto y transparente fomente la colaboración y el avance en el campo de la IA, alentando a otros a seguir su ejemplo y a proporcionar conjuntos de datos abiertos y accesibles para la comunidad de investigación.
Otras noticias • IA
Claude Code de Anthropic revoluciona la programación con voz
La introducción del modo de voz en Claude Code de Anthropic transforma el desarrollo de software, permitiendo a los programadores interactuar verbalmente con la IA....
OpenAI lanza GPT-5.3 Instant mejorando la interacción con chatbots
La actualización GPT-5.3 Instant de OpenAI mejora la interacción con chatbots, adoptando un tono más directo y menos condescendiente. Responde a las críticas de los...
X prohíbe monetización de vídeos de IA sobre conflictos armados
La red social X ha implementado medidas contra la desinformación, prohibiendo la monetización de vídeos generados por IA sobre conflictos armados sin divulgación. Aunque busca...
Cursor alcanza 2.000 millones en ingresos anuales con innovación
Cursor, un asistente de codificación fundado en 2022, ha superado los 2.000 millones de dólares en ingresos anuales al centrarse en clientes corporativos. A pesar...
Desinstalaciones de ChatGPT aumentan por asociación con Defensa
La asociación de OpenAI con el Departamento de Defensa ha provocado un aumento del 295% en las desinstalaciones de ChatGPT, mientras Claude de Anthropic ha...
Claude supera a ChatGPT por su ética y responsabilidad
Claude, el asistente de inteligencia artificial de Anthropic, ha ganado popularidad frente a ChatGPT de OpenAI debido a controversias sobre la ética y colaboración con...
Controversia por designación de Anthropic como riesgo de suministro
La designación de Anthropic como "riesgo de cadena de suministro" por el Departamento de Defensa de EE. UU. ha generado una fuerte reacción en la...
14.ai transforma el servicio al cliente con inteligencia artificial autónoma
14.ai, una startup respaldada por Y Combinator, está revolucionando el servicio al cliente mediante inteligencia artificial, reemplazando equipos tradicionales con soluciones autónomas. Su enfoque innovador...
Lo más reciente
- 1
Apple presenta el MacBook Neo, portátil asequible desde 599 dólares
- 2
CollectivIQ revoluciona la hostelería con inteligencia artificial innovadora
- 3
Aikido lanza centro de datos sumergido con energía eólica
- 4
Eight Sleep recauda 50 millones y alcanza valoración de 1.5 mil millones
- 5
Competencia en startups de IA eleva valoraciones y riesgos financieros
- 6
TikTok sufre fallos técnicos por problemas con Oracle en EE. UU
- 7
Nuevo kit de hacking amenaza la seguridad de iPhones antiguos

