IA | Transparencia

AI2 lanza Dolma, conjunto de datos gratuito para fomentar transparencia en la investigación de IA

Miles de autores firman una carta instando a los creadores de IA a dejar de robar libros

La importancia de la transparencia en los conjuntos de datos de IA

Los modelos de lenguaje como GPT-4 y Claude son poderosos y útiles, pero los datos en los que se entrenan son un secreto muy bien guardado. El Instituto Allen de Inteligencia Artificial (AI2) tiene como objetivo revertir esta tendencia con un nuevo y enorme conjunto de datos de texto que es gratuito y está abierto a la inspección.

Dolma, como se llama el conjunto de datos, está destinado a ser la base del modelo de lenguaje abierto planificado por el grupo de investigación, conocido como OLMo (Dolma es la abreviatura de "Data to feed OLMo's Appetite"). Según los investigadores de AI2, si el modelo está destinado a ser utilizado y modificado de forma gratuita por la comunidad de investigación de IA, también debería serlo el conjunto de datos que utilizan para crearlo.

El problema de la opacidad en los conjuntos de datos de IA

Aunque empresas como OpenAI y Meta publican algunas de las estadísticas vitales de los conjuntos de datos que utilizan para construir sus modelos de lenguaje, mucha de esa información se trata como propiedad exclusiva. Aparte de las consecuencias conocidas de desalentar el escrutinio y la mejora a gran escala, se especula que este enfoque cerrado se debe a que los datos no se obtuvieron de manera ética o legal: por ejemplo, que se incluyeron copias pirateadas de libros de muchos autores.

La iniciativa de AI2 para fomentar la transparencia

AI2 está desarrollando Dolma como una alternativa a esta opacidad. En un gráfico creado por AI2, se puede observar que los modelos más grandes y recientes solo proporcionan parte de la información que un investigador probablemente querría conocer sobre un conjunto de datos determinado. ¿Qué información se eliminó y por qué? ¿Qué se consideró texto de alta o baja calidad? ¿Se eliminaron adecuadamente los detalles personales?

AI2 y su modelo de lenguaje optimizado para la ciencia

Dolma de AI2 no es el primer intento de crear un conjunto de datos abierto, pero es el más grande hasta ahora (3 mil millones de tokens, una medida nativa de IA para el volumen de contenido) y, según afirman, el más sencillo en términos de uso y permisos. Utiliza la "Licencia ImpACT para artefactos de riesgo medio", de la cual se pueden ver los detalles aquí. Básicamente, requiere que los usuarios potenciales de Dolma:

  • Proporcionen información de contacto y casos de uso previstos.
  • Revelen cualquier creación derivada de Dolma.
  • Distribuyan esas creaciones derivadas bajo la misma licencia.
  • Se comprometan a no aplicar Dolma a áreas prohibidas, como la vigilancia o la desinformación.

Para aquellos que se preocupan de que, a pesar de los mejores esfuerzos de AI2, algunos de sus datos personales hayan llegado a la base de datos, hay un formulario de solicitud de eliminación disponible aquí. Es para casos específicos, no solo una solicitud general de "no me uses".

Acceso a Dolma y su importancia para la comunidad de investigación de IA

Si todo esto te parece bien, el acceso a Dolma está disponible a través de Hugging Face. AI2 espera que este enfoque abierto y transparente fomente la colaboración y el avance en el campo de la IA, alentando a otros a seguir su ejemplo y a proporcionar conjuntos de datos abiertos y accesibles para la comunidad de investigación.


Podcast El Desván de las Paradojas
Publicidad


Otras noticias • IA

IA educativa

Google lanza Gemini, IA gratuita para preparar el SAT

Google lanza Gemini, una herramienta de IA que ofrece exámenes de práctica gratuitos para el SAT, facilitando la preparación a estudiantes sin recursos. Aunque promete...

Búsqueda personalizada

Google lanza búsqueda conversacional con inteligencia personalizada y privacidad

Google ha lanzado la función de búsqueda conversacional AI Mode, que incorpora la "Inteligencia Personal", permitiendo a la IA ofrecer respuestas personalizadas al acceder a...

Inteligencia emocional

Google DeepMind adquiere Hume AI para potenciar IA emocional

La adquisición de Hume AI por Google DeepMind destaca la importancia de la inteligencia emocional en la IA de voz. Este movimiento refleja la tendencia...

Optimización IA

RadixArk optimiza la inferencia de IA con velocidad y eficiencia

RadixArk, surgida de SGLang, se centra en optimizar la inferencia de modelos de IA, prometiendo velocidad y eficiencia en costos. Fundada por Ying Sheng, la...

Ética responsable

Anthropic presenta nueva Constitución de Claude para inteligencia artificial ética

Anthropic ha lanzado una versión revisada de la Constitución de Claude, un marco ético para su chatbot. Este documento enfatiza la seguridad, la ética en...

Gestión inteligente

Todoist Ramble transforma el habla en tareas organizadas eficientemente

Todoist Ramble es una innovadora herramienta de gestión de tareas que utiliza inteligencia artificial para convertir el habla en tareas organizadas. Disponible en múltiples plataformas...

Citación falsa

Escándalo en NeurIPS revela 100 citaciones ficticias en investigaciones

La startup GPTZero ha descubierto 100 citaciones ficticias en 51 trabajos de la conferencia NeurIPS, lo que plantea serias dudas sobre la integridad del proceso...

Inteligencia artificial

YouTube Shorts integra IA para revolucionar la creación de contenido

YouTube Shorts, con 200 mil millones de visualizaciones diarias, integra inteligencia artificial para permitir a los creadores usar su imagen y voz. Esto plantea retos...