IA | Innovación

AI21 Labs lanza Jamba, modelo generativo de texto eficiente

AI21 Labs lanza Jamba, un modelo generativo de texto innovador

La industria de la inteligencia artificial se está moviendo cada vez más hacia modelos generativos de IA con contextos más largos. Pero los modelos con ventanas de contexto grandes tienden a ser intensivos en cómputo. Ori Goshen, CEO de la startup de IA AI21 Labs, afirma que esto no tiene por qué ser así, y su empresa está lanzando un modelo generativo para demostrarlo.

AI21 Labs ha presentado Jamba, un nuevo modelo de generación y análisis de texto, que puede realizar muchas de las mismas tareas que modelos como ChatGPT de OpenAI y Gemini de Google. Entrenado con una mezcla de datos públicos y propietarios, Jamba puede escribir texto en inglés, francés, español y portugués.

Un modelo eficiente y prometedor

Jamba puede manejar hasta 140,000 tokens mientras se ejecuta en una sola GPU con al menos 80GB de memoria. Esto se traduce en alrededor de 105,000 palabras, o 210 páginas, lo que equivale a una novela de tamaño decente. Por otro lado, Llama 2 de Meta tiene una ventana de contexto de 32,000 tokens, pero solo requiere una GPU con ~12GB de memoria para funcionar.

El corazón de Jamba: transformers y modelos de espacio estatal

Lo que hace único a Jamba es su combinación de dos arquitecturas de modelos: transformers y modelos de espacio estatal (SSM). Los transformers son la arquitectura preferida para tareas de razonamiento complejas, mientras que los SSM combinan cualidades de modelos de IA más antiguos para crear una arquitectura más eficiente computacionalmente capaz de manejar secuencias largas de datos.

Innovación y eficiencia

Jamba utiliza Mamba como modelo base, lo que según Goshen, proporciona tres veces la capacidad en contextos largos en comparación con modelos basados en transformers de tamaños comparables. Aunque se ha lanzado bajo la licencia Apache 2.0, Goshen destaca que es un lanzamiento de investigación y no está destinado a ser utilizado comercialmente.

Promesa de la arquitectura SSM

A pesar de sus limitaciones, Goshen asegura que Jamba demuestra el potencial de la arquitectura SSM incluso en esta etapa inicial. "El valor añadido de este modelo, tanto por su tamaño como por su arquitectura innovadora, es que se puede adaptar fácilmente a una sola GPU", afirmó. Se espera que el rendimiento mejore aún más a medida que Mamba reciba ajustes adicionales.


Crear Canciones Personalizadas
Publicidad


Otras noticias • IA

Precios ajustados

Anthropic modifica precios de Claude Code generando reacciones mixtas

Anthropic ha cambiado su política de precios para Claude Code, limitando el uso de herramientas de terceros y adoptando un sistema de "pago por uso"....

Energía artificial

Empresas tecnológicas invierten en gas ante demanda de energía creciente

La creciente demanda de energía por parte de los centros de datos impulsados por la inteligencia artificial ha llevado a las empresas tecnológicas a invertir...

Cambios directivos

OpenAI reestructura su dirección con cambios clave y renuncias

OpenAI ha realizado cambios significativos en su alta dirección, destacando la reubicación de Brad Lightcap y la llegada de Denise Dresser como directora de ingresos....

Gas sostenible

Gigantes tecnológicos impulsan carrera por gas natural sostenible

La carrera por el gas natural en la era de la IA está impulsada por la demanda energética de gigantes tecnológicos como Microsoft y Google....

Nuevos modelos

Microsoft presenta tres innovadores modelos de IA centrados en humanos

Microsoft lanza tres nuevos modelos de IA: MAI-Transcribe-1 para transcripción, MAI-Voice-1 para generación de audio y MAI-Image-2 para creación de imágenes. Con un enfoque en...

Innovaciones digitales

Google Vids lanza funciones innovadoras para crear contenido fácilmente

Google Vids ha lanzado nuevas funciones que permiten personalizar avatares mediante comandos de texto, generar vídeos cortos con Veo 3.1, exportar directamente a YouTube y...

Dilemas medioambientales

Meta enfrenta críticas por huella de carbono en expansión

La expansión de Meta con su centro de datos Hyperion plantea dilemas medioambientales al depender de plantas de gas natural, aumentando su huella de carbono....

Filtraciones preocupantes

Filtraciones en Anthropic generan alarma sobre seguridad en IA

Anthropic ha sufrido filtraciones de datos que han expuesto su código fuente, generando preocupaciones sobre la seguridad en la inteligencia artificial. Estos incidentes resaltan la...