Nvidia sorprende en su presentación en GTC
Durante la conferencia Google Cloud Next en Las Vegas, se han presentado una serie de nuevos tipos de instancias y aceleradores en la plataforma Google Cloud. A pesar de la reciente presentación de Nvidia de su plataforma Blackwell, no se espera que Google ofrezca estas máquinas pronto. Sin embargo, se espera que el soporte para Nvidia HGX B200 para cargas de trabajo de IA y HPC y GB200 NBL72 para el entrenamiento de modelos de lenguaje grande llegue a principios de 2025. Una novedad interesante es que los servidores GB200 estarán refrigerados por líquido.
Una nueva instancia para entrenar modelos de lenguaje grande
Para los desarrolladores que necesitan más potencia para entrenar modelos de lenguaje grande hoy en día, Google también ha anunciado la instancia A3 Mega. Esta instancia, desarrollada en colaboración con Nvidia, cuenta con las GPU H100 estándar de la industria, pero las combina con un nuevo sistema de red que puede ofrecer hasta el doble de ancho de banda por GPU. Además, se ha presentado la instancia A3 confidential, que permite a los clientes "proteger mejor la confidencialidad y la integridad de los datos sensibles y las cargas de trabajo de IA durante el entrenamiento y la inferencia".
Google lanza sus procesadores Cloud TPU v5p
En cuanto a los chips propios de Google, la compañía ha lanzado sus procesadores Cloud TPU v5p, los aceleradores de IA más potentes desarrollados internamente hasta la fecha, disponibles en general. Estos chips ofrecen una mejora del 2x en operaciones de punto flotante por segundo y una mejora del 3x en la velocidad de ancho de banda de memoria.
Nuevas opciones de almacenamiento optimizadas para IA
Además de los nuevos chips, Google también ha anunciado nuevas opciones de almacenamiento optimizadas para IA. Hyperdisk ML, actualmente en vista previa, es el servicio de almacenamiento de bloques de próxima generación de la compañía que puede mejorar los tiempos de carga de modelos hasta en un 3.7x, según Google.
Nuevas instancias tradicionales y optimizadas por Intel
Google Cloud también está lanzando una serie de instancias más tradicionales, impulsadas por los procesadores Intel de cuarta y quinta generación Xeon. Por ejemplo, las nuevas instancias C4 y N4 de propósito general contarán con los Xeons de quinta generación Emerald Rapids, con el C4 centrado en el rendimiento y el N4 en el precio. Las nuevas instancias C4 están actualmente en vista previa privada, y las máquinas N4 están disponibles hoy en día. También en vista previa están las nuevas máquinas bare-metal C3, impulsadas por los Xeons de cuarta generación más antiguos, las instancias bare-metal optimizadas para memoria X4 (también en vista previa) y la Z3, la primera máquina virtual optimizada para almacenamiento de Google Cloud que promete ofrecer "el mayor IOPS para instancias optimizadas para almacenamiento entre los principales proveedores de nube".
Otras noticias • IA
Claude de Anthropic se dispara en descargas tras Super Bowl
La campaña publicitaria de Anthropic durante el Super Bowl ha impulsado significativamente las descargas de su chatbot, Claude, gracias a su enfoque creativo y humorístico....
IBM triplicará contratación de jóvenes con habilidades humanas para 2026
IBM planea triplicar la contratación de puestos de entrada en EE. UU. para 2026, enfocándose en habilidades humanas como la creatividad y la empatía. Este...
Pinterest lucha por monetizar a pesar del crecimiento de usuarios
Pinterest enfrenta desafíos para monetizar su plataforma a pesar de un aumento en usuarios activos. La competencia de la inteligencia artificial y cambios en la...
Didero revoluciona la cadena de suministro con inteligencia artificial
La pandemia reveló la complejidad del aprovisionamiento global. Tim Spencer fundó Didero para automatizar procesos, integrando comunicación y reduciendo tareas manuales. Con inteligencia artificial, Didero...
Spotify impulsa la música con inteligencia artificial innovadora
Spotify está revolucionando su desarrollo y experiencia musical mediante la inteligencia artificial, utilizando un sistema interno que agiliza la codificación y personaliza la música. La...
OpenAI y Cerebras lanzan Codex-Spark para revolucionar la programación
OpenAI ha lanzado Codex-Spark, una versión optimizada de su herramienta de codificación, en colaboración con Cerebras. Este avance, respaldado por un acuerdo de 10 mil...
Modal Labs busca financiación para alcanzar valoración de 2.500 millones
Modal Labs, una startup centrada en la optimización de la infraestructura de inferencia de inteligencia artificial, busca financiación para elevar su valoración a 2.500 millones...
xAI reestructura equipos y despide empleados en nueva dirección
xAI, cofundada por Elon Musk, reveló en una reunión interna su reestructuración y despidos, centrándose en cuatro equipos de desarrollo. Musk destacó la importancia de...
Lo más reciente
- 1
Nothing inaugura su primera tienda en Bengaluru y revoluciona compras
- 2
DavaIndia Pharmacy expone datos sensibles tras brecha de seguridad
- 3
Airbnb integra IA para personalizar experiencias y optimizar propiedades
- 4
Airbnb transforma atención al cliente con inteligencia artificial innovadora
- 5
Brecha de seguridad en Figure Technology expone datos sensibles
- 6
Filtración de datos en Tenga expone vulnerabilidad en juguetes eróticos
- 7
Gobierno indio y Alibaba.com impulsan PYMES hacia mercados globales

