Miles de autores firman una carta instando a los creadores de IA a dejar de robar libros
La importancia de la transparencia en los conjuntos de datos de IA
Los modelos de lenguaje como GPT-4 y Claude son poderosos y útiles, pero los datos en los que se entrenan son un secreto muy bien guardado. El Instituto Allen de Inteligencia Artificial (AI2) tiene como objetivo revertir esta tendencia con un nuevo y enorme conjunto de datos de texto que es gratuito y está abierto a la inspección.
Dolma, como se llama el conjunto de datos, está destinado a ser la base del modelo de lenguaje abierto planificado por el grupo de investigación, conocido como OLMo (Dolma es la abreviatura de "Data to feed OLMo's Appetite"). Según los investigadores de AI2, si el modelo está destinado a ser utilizado y modificado de forma gratuita por la comunidad de investigación de IA, también debería serlo el conjunto de datos que utilizan para crearlo.
El problema de la opacidad en los conjuntos de datos de IA
Aunque empresas como OpenAI y Meta publican algunas de las estadísticas vitales de los conjuntos de datos que utilizan para construir sus modelos de lenguaje, mucha de esa información se trata como propiedad exclusiva. Aparte de las consecuencias conocidas de desalentar el escrutinio y la mejora a gran escala, se especula que este enfoque cerrado se debe a que los datos no se obtuvieron de manera ética o legal: por ejemplo, que se incluyeron copias pirateadas de libros de muchos autores.
La iniciativa de AI2 para fomentar la transparencia
AI2 está desarrollando Dolma como una alternativa a esta opacidad. En un gráfico creado por AI2, se puede observar que los modelos más grandes y recientes solo proporcionan parte de la información que un investigador probablemente querría conocer sobre un conjunto de datos determinado. ¿Qué información se eliminó y por qué? ¿Qué se consideró texto de alta o baja calidad? ¿Se eliminaron adecuadamente los detalles personales?
AI2 y su modelo de lenguaje optimizado para la ciencia
Dolma de AI2 no es el primer intento de crear un conjunto de datos abierto, pero es el más grande hasta ahora (3 mil millones de tokens, una medida nativa de IA para el volumen de contenido) y, según afirman, el más sencillo en términos de uso y permisos. Utiliza la "Licencia ImpACT para artefactos de riesgo medio", de la cual se pueden ver los detalles aquí. Básicamente, requiere que los usuarios potenciales de Dolma:
- Proporcionen información de contacto y casos de uso previstos.
- Revelen cualquier creación derivada de Dolma.
- Distribuyan esas creaciones derivadas bajo la misma licencia.
- Se comprometan a no aplicar Dolma a áreas prohibidas, como la vigilancia o la desinformación.
Para aquellos que se preocupan de que, a pesar de los mejores esfuerzos de AI2, algunos de sus datos personales hayan llegado a la base de datos, hay un formulario de solicitud de eliminación disponible aquí. Es para casos específicos, no solo una solicitud general de "no me uses".
Acceso a Dolma y su importancia para la comunidad de investigación de IA
Si todo esto te parece bien, el acceso a Dolma está disponible a través de Hugging Face. AI2 espera que este enfoque abierto y transparente fomente la colaboración y el avance en el campo de la IA, alentando a otros a seguir su ejemplo y a proporcionar conjuntos de datos abiertos y accesibles para la comunidad de investigación.
Otras noticias • IA
Google lanza Gemini, IA gratuita para preparar el SAT
Google lanza Gemini, una herramienta de IA que ofrece exámenes de práctica gratuitos para el SAT, facilitando la preparación a estudiantes sin recursos. Aunque promete...
Google lanza búsqueda conversacional con inteligencia personalizada y privacidad
Google ha lanzado la función de búsqueda conversacional AI Mode, que incorpora la "Inteligencia Personal", permitiendo a la IA ofrecer respuestas personalizadas al acceder a...
Google DeepMind adquiere Hume AI para potenciar IA emocional
La adquisición de Hume AI por Google DeepMind destaca la importancia de la inteligencia emocional en la IA de voz. Este movimiento refleja la tendencia...
RadixArk optimiza la inferencia de IA con velocidad y eficiencia
RadixArk, surgida de SGLang, se centra en optimizar la inferencia de modelos de IA, prometiendo velocidad y eficiencia en costos. Fundada por Ying Sheng, la...
Anthropic presenta nueva Constitución de Claude para inteligencia artificial ética
Anthropic ha lanzado una versión revisada de la Constitución de Claude, un marco ético para su chatbot. Este documento enfatiza la seguridad, la ética en...
Todoist Ramble transforma el habla en tareas organizadas eficientemente
Todoist Ramble es una innovadora herramienta de gestión de tareas que utiliza inteligencia artificial para convertir el habla en tareas organizadas. Disponible en múltiples plataformas...
Escándalo en NeurIPS revela 100 citaciones ficticias en investigaciones
La startup GPTZero ha descubierto 100 citaciones ficticias en 51 trabajos de la conferencia NeurIPS, lo que plantea serias dudas sobre la integridad del proceso...
YouTube Shorts integra IA para revolucionar la creación de contenido
YouTube Shorts, con 200 mil millones de visualizaciones diarias, integra inteligencia artificial para permitir a los creadores usar su imagen y voz. Esto plantea retos...
Lo más reciente
- 1
Inteligencia artificial avanza lentamente en trabajos del conocimiento
- 2
Debate sobre monetización de inteligencia artificial y experiencia del usuario
- 3
Ring lanzará herramienta para autenticar vídeos en diciembre 2025
- 4
Anthropic redefine evaluaciones para destacar habilidades humanas en selección
- 5
Tesla lanza robotaxis en Austin, revolucionando la movilidad autónoma
- 6
Substack lanza app de TV para expandir contenido audiovisual
- 7
Jenny Liu lanza Crush It Ventures para apoyar emprendedores del bienestar

