Google presenta Gemma, una nueva familia de modelos ligeros
Google ha anunciado hoy el lanzamiento de Gemma, una nueva familia de modelos ligeros de código abierto. Estos nuevos modelos, comenzando con Gemma 2B y Gemma 7B, han sido "inspirados por Gemini" y están disponibles para uso comercial e investigativo.
Google no nos ha proporcionado un documento detallado sobre cómo estos modelos se desempeñan en comparación con modelos similares de Meta y Mistral, por ejemplo, y solo señaló que son "de última generación". La empresa sí mencionó que estos son modelos densos de solo decodificador, que es la misma arquitectura que utilizó para sus modelos Gemini (y sus modelos anteriores de PaLM) y que veremos las comparativas más tarde hoy en el ranking de Hugging Face.
Acceso a Gemma y herramientas de desarrollo
Para empezar con Gemma, los desarrolladores pueden acceder a cuadernos Colab y Kaggle listos para usar, así como integraciones con Hugging Face, MaxText y NeMo de Nvidia. Una vez pre-entrenados y ajustados, estos modelos pueden ejecutarse en cualquier lugar.
Si bien Google destaca que estos son modelos abiertos, cabe destacar que no son de código abierto. De hecho, en una reunión informativa antes del anuncio de hoy, Janine Banks de Google destacó el compromiso de la empresa con el código abierto, pero también señaló que Google es muy intencional en la forma en que se refiere a los modelos de Gemma.
"Los modelos abiertos se han vuelto bastante generalizados en la industria", dijo Banks. "Y a menudo se refiere a modelos de pesos abiertos, donde hay un amplio acceso para que los desarrolladores e investigadores personalicen y ajusten los modelos, pero, al mismo tiempo, los términos de uso, como la redistribución, así como la propiedad de las variantes desarrolladas, varían según los términos de uso específicos del modelo. Y así vemos alguna diferencia entre lo que tradicionalmente llamaríamos de código abierto y decidimos que tenía más sentido referirnos a nuestros modelos de Gemma como modelos abiertos".
Potencial de desarrollo de aplicaciones de IA
Los tamaños de estos modelos son adecuados para muchos casos de uso y, según el director de gestión de productos de Google DeepMind, Tris Warkentin, "la calidad de generación ha aumentado significativamente en el último año". Esto desbloquea nuevas formas de desarrollar aplicaciones de IA, incluida la capacidad de ejecutar inferencias y ajustes en tu escritorio o portátil de desarrollo local con tu GPU RTX o en un único host en GCP con Cloud TPUs, por ejemplo.
Esto también es cierto para los modelos abiertos de los competidores de Google en este espacio, por lo que tendremos que ver cómo se desempeñan los modelos de Gemma en escenarios del mundo real. Además de los nuevos modelos, Google también está lanzando un nuevo kit de herramientas de IA generativa responsable para proporcionar "orientación y herramientas esenciales para crear aplicaciones de IA más seguras con Gemma", así como una herramienta de depuración.
Otras noticias • IA
Alexa+ revoluciona pedidos a domicilio con interacciones personalizadas
La llegada de Alexa+, el nuevo asistente de Amazon, transforma la experiencia de pedir comida a domicilio mediante interacciones naturales y personalizadas. Aunque ofrece comodidad...
NomadicML recibe 8,4 millones para revolucionar datos en IA autónoma
NomadicML, una startup emergente, ha desarrollado una plataforma que convierte grabaciones en conjuntos de datos estructurados para mejorar el entrenamiento de modelos de IA en...
Creciente adopción de IA en EE. UU. pero baja confianza
La adopción de la inteligencia artificial en Estados Unidos crece, pero la confianza en ella es baja. Un estudio revela que el 76% desconfía de...
Mantis Biotech revoluciona la medicina con gemelos digitales humanos
Mantis Biotech ha desarrollado una plataforma que crea gemelos digitales del cuerpo humano mediante la recopilación de datos de diversas fuentes. Esta tecnología permite simular...
ScaleOps recauda 130 millones para optimizar gestión en la nube
ScaleOps, una startup emergente, ha recaudado 130 millones de dólares para desarrollar una solución autónoma que optimiza la gestión de infraestructuras en la nube, reduciendo...
Mistral AI invierte 830 millones en infraestructura de IA en Europa
Mistral AI ha recaudado 830 millones de dólares para construir un centro de datos cerca de París, impulsando la infraestructura de inteligencia artificial en Europa....
Chatbots fomentan dependencia al adular más que humanos
La "sicosis de la adulación" en la inteligencia artificial, especialmente en chatbots, valida las creencias de los usuarios, debilitando sus habilidades sociales y fomentando la...
Anthropic crece con Claude en medio de disputa con Defensa
La disputa entre Anthropic y el Departamento de Defensa de EE. UU. ha impulsado el crecimiento de su producto, Claude, gracias a una estrategia de...
Lo más reciente
- 1
Ciberataque a Mercor evidencia vulnerabilidades en empresas tecnológicas
- 2
Filtraciones en Anthropic generan alarma sobre seguridad en IA
- 3
Salesforce actualiza Slack con IA y mejora la colaboración empresarial
- 4
OpenAI recauda 122 mil millones y se prepara para OPI
- 5
Robotaxis sin operador de Uber y WeRide llegan a Dubái
- 6
Yupp.ai cierra tras atraer 1,3 millones de usuarios
- 7
Truecaller supera 500 millones de usuarios y combate el spam

