AI21 Labs lanza Jamba, un modelo generativo de texto innovador
La industria de la inteligencia artificial se está moviendo cada vez más hacia modelos generativos de IA con contextos más largos. Pero los modelos con ventanas de contexto grandes tienden a ser intensivos en cómputo. Ori Goshen, CEO de la startup de IA AI21 Labs, afirma que esto no tiene por qué ser así, y su empresa está lanzando un modelo generativo para demostrarlo.
AI21 Labs ha presentado Jamba, un nuevo modelo de generación y análisis de texto, que puede realizar muchas de las mismas tareas que modelos como ChatGPT de OpenAI y Gemini de Google. Entrenado con una mezcla de datos públicos y propietarios, Jamba puede escribir texto en inglés, francés, español y portugués.
Un modelo eficiente y prometedor
Jamba puede manejar hasta 140,000 tokens mientras se ejecuta en una sola GPU con al menos 80GB de memoria. Esto se traduce en alrededor de 105,000 palabras, o 210 páginas, lo que equivale a una novela de tamaño decente. Por otro lado, Llama 2 de Meta tiene una ventana de contexto de 32,000 tokens, pero solo requiere una GPU con ~12GB de memoria para funcionar.
El corazón de Jamba: transformers y modelos de espacio estatal
Lo que hace único a Jamba es su combinación de dos arquitecturas de modelos: transformers y modelos de espacio estatal (SSM). Los transformers son la arquitectura preferida para tareas de razonamiento complejas, mientras que los SSM combinan cualidades de modelos de IA más antiguos para crear una arquitectura más eficiente computacionalmente capaz de manejar secuencias largas de datos.
Innovación y eficiencia
Jamba utiliza Mamba como modelo base, lo que según Goshen, proporciona tres veces la capacidad en contextos largos en comparación con modelos basados en transformers de tamaños comparables. Aunque se ha lanzado bajo la licencia Apache 2.0, Goshen destaca que es un lanzamiento de investigación y no está destinado a ser utilizado comercialmente.
Promesa de la arquitectura SSM
A pesar de sus limitaciones, Goshen asegura que Jamba demuestra el potencial de la arquitectura SSM incluso en esta etapa inicial. "El valor añadido de este modelo, tanto por su tamaño como por su arquitectura innovadora, es que se puede adaptar fácilmente a una sola GPU", afirmó. Se espera que el rendimiento mejore aún más a medida que Mamba reciba ajustes adicionales.
Otras noticias • IA
Inteligencia artificial revoluciona economía y plantea nuevos desafíos éticos
La inteligencia artificial está transformando rápidamente la economía y la vida cotidiana, con un crecimiento sin precedentes en su adopción. Aunque ofrece eficiencia y oportunidades,...
Google integra IA en Gmail para resúmenes automáticos de correos
Google integra la IA Gemini en Gmail, ofreciendo resúmenes automáticos de correos electrónicos para mejorar la gestión de la bandeja de entrada. Aunque promete eficiencia,...
Errores de IA revelan limitaciones y afectan confianza del usuario
La inteligencia artificial ha avanzado notablemente, pero recientes errores, como la confusión de Google AI Overviews sobre el año, evidencian sus limitaciones. Estos fallos afectan...
Grammarly recibe mil millones sin diluir propiedad de fundadores
Grammarly ha asegurado una inversión de mil millones de dólares de General Catalyst, sin diluir la propiedad de sus fundadores. Los fondos se destinarán a...
Black Forest Labs lanza Flux.1 Kontext para crear imágenes fácilmente
Black Forest Labs ha lanzado Flux.1 Kontext, una suite de modelos de generación y edición de imágenes que combina velocidad y precisión. Con un enfoque...
Hugging Face lanza robots humanoides accesibles y de código abierto
Hugging Face ha lanzado los robots humanoides HopeJR y Reachy Mini, de código abierto y a precios asequibles, promoviendo la accesibilidad en la robótica. Estos...
Perplexity Labs revoluciona la creación de informes con IA
Perplexity Labs, lanzado por Perplexity, es una innovadora plataforma de IA que transforma la creación de informes y proyectos. Disponible para suscriptores Pro, ofrece herramientas...
DeepSeek mejora IA pero enfrenta censura y dilemas éticos
La startup china DeepSeek ha mejorado su modelo de IA, R1-0528, pero enfrenta limitaciones por la censura gubernamental, afectando su capacidad para abordar temas sensibles....
Lo más reciente
- 1
Bluesky crece entre influencers progresistas tras elecciones de 2024
- 2
Meta automatiza evaluación de riesgos con IA, surgen preocupaciones éticas
- 3
NAACP denuncia operación de Colossus en Memphis por riesgos ambientales
- 4
Meta lanza Edits, nueva app de edición de vídeos gratuita
- 5
Google lanza AI Edge Gallery para ejecutar IA sin internet
- 6
X enfrenta caídas del servicio y usuarios buscan alternativas
- 7
Caos en gestión de DOGE genera descontento y críticas