IA | Innovación

AI21 Labs lanza Jamba, modelo generativo de texto eficiente

AI21 Labs lanza Jamba, un modelo generativo de texto innovador

La industria de la inteligencia artificial se está moviendo cada vez más hacia modelos generativos de IA con contextos más largos. Pero los modelos con ventanas de contexto grandes tienden a ser intensivos en cómputo. Ori Goshen, CEO de la startup de IA AI21 Labs, afirma que esto no tiene por qué ser así, y su empresa está lanzando un modelo generativo para demostrarlo.

AI21 Labs ha presentado Jamba, un nuevo modelo de generación y análisis de texto, que puede realizar muchas de las mismas tareas que modelos como ChatGPT de OpenAI y Gemini de Google. Entrenado con una mezcla de datos públicos y propietarios, Jamba puede escribir texto en inglés, francés, español y portugués.

Un modelo eficiente y prometedor

Jamba puede manejar hasta 140,000 tokens mientras se ejecuta en una sola GPU con al menos 80GB de memoria. Esto se traduce en alrededor de 105,000 palabras, o 210 páginas, lo que equivale a una novela de tamaño decente. Por otro lado, Llama 2 de Meta tiene una ventana de contexto de 32,000 tokens, pero solo requiere una GPU con ~12GB de memoria para funcionar.

El corazón de Jamba: transformers y modelos de espacio estatal

Lo que hace único a Jamba es su combinación de dos arquitecturas de modelos: transformers y modelos de espacio estatal (SSM). Los transformers son la arquitectura preferida para tareas de razonamiento complejas, mientras que los SSM combinan cualidades de modelos de IA más antiguos para crear una arquitectura más eficiente computacionalmente capaz de manejar secuencias largas de datos.

Innovación y eficiencia

Jamba utiliza Mamba como modelo base, lo que según Goshen, proporciona tres veces la capacidad en contextos largos en comparación con modelos basados en transformers de tamaños comparables. Aunque se ha lanzado bajo la licencia Apache 2.0, Goshen destaca que es un lanzamiento de investigación y no está destinado a ser utilizado comercialmente.

Promesa de la arquitectura SSM

A pesar de sus limitaciones, Goshen asegura que Jamba demuestra el potencial de la arquitectura SSM incluso en esta etapa inicial. "El valor añadido de este modelo, tanto por su tamaño como por su arquitectura innovadora, es que se puede adaptar fácilmente a una sola GPU", afirmó. Se espera que el rendimiento mejore aún más a medida que Mamba reciba ajustes adicionales.


Crear Canciones Personalizadas
Publicidad


Otras noticias • IA

Suscripción intermedia

OpenAI lanza plan de suscripción para desarrolladores a 100 dólares

OpenAI ha lanzado un nuevo plan de suscripción de 100 dólares al mes para desarrolladores, ofreciendo mayor capacidad de codificación con Codex. Este plan se...

Crisis cibernética

Mercor enfrenta crisis tras brecha de datos sensible y demandas

Mercor, una startup de inteligencia artificial, enfrenta una crisis tras una brecha de datos que comprometió información sensible. La situación ha llevado a la suspensión...

Tiroteo tecnológico

Tiroteo en Florida genera demanda contra OpenAI por ChatGPT

Un tiroteo en la Universidad Estatal de Florida, donde se alega que el atacante usó ChatGPT para planificar el ataque, ha llevado a una demanda...

Acceso restringido

Anthropic limita acceso a Mythos para priorizar seguridad cibernética

Anthropic ha restringido el acceso a su modelo de IA, Mythos, para detectar vulnerabilidades en software, priorizando la seguridad y la colaboración entre grandes empresas....

IA multimodal

Meta lanza Muse Spark y escala en la App Store

Meta ha lanzado Muse Spark, un modelo de IA que ha impulsado su aplicación Meta AI al 5º puesto en la App Store de EE....

Estrategia tecnológica

Amazon refuerza su liderazgo tecnológico con inteligencia artificial y satélites

En su carta a los accionistas, Andy Jassy destaca la estrategia de Amazon en inteligencia artificial con Trainium, la competencia con Intel mediante Graviton, el...

Inversión ética

AWS invierte 50.000 millones en OpenAI y genera controversia

Amazon Web Services (AWS) ha invertido 50.000 millones de dólares en OpenAI, generando debates sobre ética y competencia. Matt Garman, CEO de AWS, defiende la...

Recomendaciones personalizadas

Tubi integra ChatGPT para recomendaciones personalizadas de contenido

Tubi ha lanzado una integración con ChatGPT, permitiendo a los usuarios recibir recomendaciones personalizadas de su vasta biblioteca de contenido mediante lenguaje natural. Esta innovación...