Google lanza su nuevo modelo de lenguaje Gemini y su actualización de TPU en la nube
Google ha anunciado hoy el lanzamiento de su nuevo modelo de lenguaje Gemini y, con él, la compañía también ha lanzado su nueva TPU en la nube, la versión actualizada de su TPU v5e, que se lanzó al público a principios de este año. El pod v5p consta de un total de 8.960 chips y cuenta con la interconexión más rápida de Google hasta ahora, con hasta 4.800 Gbps por chip. Google ha entrenado a Gemini en estos nuevos chips personalizados.
Chips más rápidos y mejor rendimiento
No sorprende que Google prometa que estos chips son significativamente más rápidos que los TPU v4. El equipo afirma que el v5p ofrece una mejora del 2x en FLOPS y una mejora del 3x en memoria de alta velocidad. Es un poco como comparar el nuevo modelo Gemini con el antiguo modelo OpenAI GPT 3.5. Después de todo, Google ya ha llevado el estado del arte más allá del TPU v4. Sin embargo, los pods v5e fueron en muchos sentidos una versión inferior de los pods v4, con solo 256 chips v5e por pod en comparación con los 4096 del v4, y un rendimiento total de 197 TFLOPs de punto flotante de 16 bits por chip v5e en comparación con los 275 del v4. Para el nuevo v5p, Google promete hasta 459 TFLOPs de rendimiento de punto flotante de 16 bits, respaldado por una interconexión más rápida.
Mayor velocidad y eficiencia
Google afirma que esto significa que el TPU v5p puede entrenar un modelo de lenguaje grande como el GPT3-175B 2.8 veces más rápido que el TPU v4, y hacerlo de manera más rentable también (aunque el TPU v5e, aunque más lento, ofrece en realidad un rendimiento relativo por dólar superior al del v5p).
"In our early stage usage, Google DeepMind and Google Research have observed 2X speedups for LLM training workloads using TPU v5p chips compared to the performance on our TPU v4 generation," writes Jeff Dean, Chief Scientist, Google DeepMind and Google Research. "The robust support for ML Frameworks (JAX, PyTorch, TensorFlow) and orchestration tools enables us to scale even more efficiently on v5p. With the 2nd generation of SparseCores we also see significant improvement in the performance of embeddings-heavy workloads. TPUs are vital to enabling our largest-scale research and engineering efforts on cutting edge models like Gemini."
El nuevo TPU v5p aún no está disponible para el público en general, por lo que los desarrolladores tendrán que ponerse en contacto con su gerente de cuenta de Google para estar en la lista.
Implicaciones para la investigación y el desarrollo de modelos avanzados
Este anuncio de Google tiene implicaciones significativas para la comunidad de investigación y desarrollo de modelos de lenguaje. Con el TPU v5p, los investigadores podrán entrenar modelos de lenguaje más grandes y complejos de manera más rápida y eficiente. Esto abre la puerta a avances en el campo de la traducción automática, el procesamiento del lenguaje natural y otras aplicaciones de inteligencia artificial que requieren modelos de lenguaje de gran escala.
Además, la mejora en el rendimiento de los chips y la interconexión más rápida también beneficiará a las empresas que utilizan la inteligencia artificial en sus operaciones diarias. Con el TPU v5p, las empresas podrán entrenar modelos de lenguaje personalizados y optimizados para sus necesidades específicas de manera más rápida y rentable, lo que les permitirá mejorar la precisión y eficiencia de sus sistemas de inteligencia artificial.
En resumen, el lanzamiento del modelo de lenguaje Gemini y la actualización de la TPU v5p de Google marcan un avance significativo en el campo de la inteligencia artificial. Estas mejoras en el rendimiento y la eficiencia permitirán a los investigadores y empresas desarrollar y desplegar modelos de lenguaje más avanzados, lo que impulsará la innovación y el progreso en el campo de la inteligencia artificial.
Otras noticias • IA
NotebookLM de Google transforma la toma de notas móviles
NotebookLM de Google, disponible para dispositivos móviles a partir del 20 de mayo, revolucionará la toma de notas y la gestión de información. Con resúmenes...
OpenAI mejora IA tras incidentes de respuestas inapropiadas
OpenAI ha decidido implementar cambios significativos en sus modelos de IA tras incidentes de respuestas inapropiadas de ChatGPT. Se introducirán fases de prueba, mayor transparencia...
Airbnb lanza bot de IA que reduce consultas humanas un 15%
Airbnb ha implementado un bot de servicio al cliente basado en inteligencia artificial en EE. UU., con un 50% de usuarios utilizándolo. Esto ha reducido...
Reddit lanza chatbot para satisfacer a Seekers y aumentar compromiso
Reddit ha identificado dos tipos de usuarios: Scrollers, que buscan interacción comunitaria, y Seekers, que buscan respuestas. Para estos últimos, ha lanzado Reddit Answers, un...
Amazon presenta Alexa+ con IA generativa para interacciones mejoradas
Amazon ha lanzado Alexa+, un asistente digital mejorado con IA generativa, que busca ofrecer interacciones más naturales. Aunque enfrenta retos tecnológicos y limitaciones actuales, la...
Inteligencia artificial revoluciona ciencia, pero genera escepticismo persistente
La inteligencia artificial está transformando la investigación científica, con herramientas como las de FutureHouse que prometen acelerar descubrimientos. Sin embargo, persisten limitaciones y escepticismo entre...
Olmo 2 1B democratiza la IA con un billón de parámetros
Olmo 2 1B, lanzado por Ai2, es un modelo de inteligencia artificial con un billón de parámetros, diseñado para ser accesible y eficiente en dispositivos...
Claude de Anthropic se actualiza con nuevas integraciones avanzadas
Anthropic ha actualizado su chatbot Claude con nuevas integraciones que mejoran su conectividad y capacidad de investigación profunda. Asociaciones con empresas como Atlassian y Zapier...
Lo más reciente
- 1
Starbase: nueva ciudad de SpaceX que une empleados y comunidad
- 2
Desarrolladores latinoamericanos crecen ante demanda de talento en IA
- 3
Gemini 2.5 Pro de Google completa Pokémon Blue, un hito
- 4
Plataformas de segunda mano se adaptan y crecen en crisis
- 5
Inteligencia artificial prioriza compromiso y descuida calidad en interacciones
- 6
Gemini 2.5 de Google genera más contenido inapropiado y preocupaciones
- 7
Filtración en Raw expone datos sensibles y genera alarma