Miles de autores firman una carta instando a los creadores de IA a dejar de robar libros
La importancia de la transparencia en los conjuntos de datos de IA
Los modelos de lenguaje como GPT-4 y Claude son poderosos y útiles, pero los datos en los que se entrenan son un secreto muy bien guardado. El Instituto Allen de Inteligencia Artificial (AI2) tiene como objetivo revertir esta tendencia con un nuevo y enorme conjunto de datos de texto que es gratuito y está abierto a la inspección.
Dolma, como se llama el conjunto de datos, está destinado a ser la base del modelo de lenguaje abierto planificado por el grupo de investigación, conocido como OLMo (Dolma es la abreviatura de "Data to feed OLMo's Appetite"). Según los investigadores de AI2, si el modelo está destinado a ser utilizado y modificado de forma gratuita por la comunidad de investigación de IA, también debería serlo el conjunto de datos que utilizan para crearlo.
El problema de la opacidad en los conjuntos de datos de IA
Aunque empresas como OpenAI y Meta publican algunas de las estadísticas vitales de los conjuntos de datos que utilizan para construir sus modelos de lenguaje, mucha de esa información se trata como propiedad exclusiva. Aparte de las consecuencias conocidas de desalentar el escrutinio y la mejora a gran escala, se especula que este enfoque cerrado se debe a que los datos no se obtuvieron de manera ética o legal: por ejemplo, que se incluyeron copias pirateadas de libros de muchos autores.
La iniciativa de AI2 para fomentar la transparencia
AI2 está desarrollando Dolma como una alternativa a esta opacidad. En un gráfico creado por AI2, se puede observar que los modelos más grandes y recientes solo proporcionan parte de la información que un investigador probablemente querría conocer sobre un conjunto de datos determinado. ¿Qué información se eliminó y por qué? ¿Qué se consideró texto de alta o baja calidad? ¿Se eliminaron adecuadamente los detalles personales?
AI2 y su modelo de lenguaje optimizado para la ciencia
Dolma de AI2 no es el primer intento de crear un conjunto de datos abierto, pero es el más grande hasta ahora (3 mil millones de tokens, una medida nativa de IA para el volumen de contenido) y, según afirman, el más sencillo en términos de uso y permisos. Utiliza la "Licencia ImpACT para artefactos de riesgo medio", de la cual se pueden ver los detalles aquí. Básicamente, requiere que los usuarios potenciales de Dolma:
- Proporcionen información de contacto y casos de uso previstos.
- Revelen cualquier creación derivada de Dolma.
- Distribuyan esas creaciones derivadas bajo la misma licencia.
- Se comprometan a no aplicar Dolma a áreas prohibidas, como la vigilancia o la desinformación.
Para aquellos que se preocupan de que, a pesar de los mejores esfuerzos de AI2, algunos de sus datos personales hayan llegado a la base de datos, hay un formulario de solicitud de eliminación disponible aquí. Es para casos específicos, no solo una solicitud general de "no me uses".
Acceso a Dolma y su importancia para la comunidad de investigación de IA
Si todo esto te parece bien, el acceso a Dolma está disponible a través de Hugging Face. AI2 espera que este enfoque abierto y transparente fomente la colaboración y el avance en el campo de la IA, alentando a otros a seguir su ejemplo y a proporcionar conjuntos de datos abiertos y accesibles para la comunidad de investigación.
Otras noticias • IA
OpenAI lanza plan de suscripción para desarrolladores a 100 dólares
OpenAI ha lanzado un nuevo plan de suscripción de 100 dólares al mes para desarrolladores, ofreciendo mayor capacidad de codificación con Codex. Este plan se...
Mercor enfrenta crisis tras brecha de datos sensible y demandas
Mercor, una startup de inteligencia artificial, enfrenta una crisis tras una brecha de datos que comprometió información sensible. La situación ha llevado a la suspensión...
Tiroteo en Florida genera demanda contra OpenAI por ChatGPT
Un tiroteo en la Universidad Estatal de Florida, donde se alega que el atacante usó ChatGPT para planificar el ataque, ha llevado a una demanda...
Anthropic limita acceso a Mythos para priorizar seguridad cibernética
Anthropic ha restringido el acceso a su modelo de IA, Mythos, para detectar vulnerabilidades en software, priorizando la seguridad y la colaboración entre grandes empresas....
Meta lanza Muse Spark y escala en la App Store
Meta ha lanzado Muse Spark, un modelo de IA que ha impulsado su aplicación Meta AI al 5º puesto en la App Store de EE....
Amazon refuerza su liderazgo tecnológico con inteligencia artificial y satélites
En su carta a los accionistas, Andy Jassy destaca la estrategia de Amazon en inteligencia artificial con Trainium, la competencia con Intel mediante Graviton, el...
AWS invierte 50.000 millones en OpenAI y genera controversia
Amazon Web Services (AWS) ha invertido 50.000 millones de dólares en OpenAI, generando debates sobre ética y competencia. Matt Garman, CEO de AWS, defiende la...
Tubi integra ChatGPT para recomendaciones personalizadas de contenido
Tubi ha lanzado una integración con ChatGPT, permitiendo a los usuarios recibir recomendaciones personalizadas de su vasta biblioteca de contenido mediante lenguaje natural. Esta innovación...
Lo más reciente
- 1
Artemis II regresa exitosamente y avanza exploración lunar y Marte
- 2
Artemis II: Hito lunar con astronautas tras 50 años
- 3
Controversia entre OpenClaw y Anthropic desata debate sobre ética en IA
- 4
Ascend Elements se declara en bancarrota y sacude mercado eléctrico
- 5
YouTube incrementa precios en Premium y Music ante críticas mixtas
- 6
Francia adopta Linux para fortalecer su soberanía digital
- 7
Meta lanza Muse Spark ante preocupaciones de privacidad y confianza

