Nvidia sorprende en su presentación en GTC
Durante la conferencia Google Cloud Next en Las Vegas, se han presentado una serie de nuevos tipos de instancias y aceleradores en la plataforma Google Cloud. A pesar de la reciente presentación de Nvidia de su plataforma Blackwell, no se espera que Google ofrezca estas máquinas pronto. Sin embargo, se espera que el soporte para Nvidia HGX B200 para cargas de trabajo de IA y HPC y GB200 NBL72 para el entrenamiento de modelos de lenguaje grande llegue a principios de 2025. Una novedad interesante es que los servidores GB200 estarán refrigerados por líquido.
Una nueva instancia para entrenar modelos de lenguaje grande
Para los desarrolladores que necesitan más potencia para entrenar modelos de lenguaje grande hoy en día, Google también ha anunciado la instancia A3 Mega. Esta instancia, desarrollada en colaboración con Nvidia, cuenta con las GPU H100 estándar de la industria, pero las combina con un nuevo sistema de red que puede ofrecer hasta el doble de ancho de banda por GPU. Además, se ha presentado la instancia A3 confidential, que permite a los clientes "proteger mejor la confidencialidad y la integridad de los datos sensibles y las cargas de trabajo de IA durante el entrenamiento y la inferencia".
Google lanza sus procesadores Cloud TPU v5p
En cuanto a los chips propios de Google, la compañía ha lanzado sus procesadores Cloud TPU v5p, los aceleradores de IA más potentes desarrollados internamente hasta la fecha, disponibles en general. Estos chips ofrecen una mejora del 2x en operaciones de punto flotante por segundo y una mejora del 3x en la velocidad de ancho de banda de memoria.
Nuevas opciones de almacenamiento optimizadas para IA
Además de los nuevos chips, Google también ha anunciado nuevas opciones de almacenamiento optimizadas para IA. Hyperdisk ML, actualmente en vista previa, es el servicio de almacenamiento de bloques de próxima generación de la compañía que puede mejorar los tiempos de carga de modelos hasta en un 3.7x, según Google.
Nuevas instancias tradicionales y optimizadas por Intel
Google Cloud también está lanzando una serie de instancias más tradicionales, impulsadas por los procesadores Intel de cuarta y quinta generación Xeon. Por ejemplo, las nuevas instancias C4 y N4 de propósito general contarán con los Xeons de quinta generación Emerald Rapids, con el C4 centrado en el rendimiento y el N4 en el precio. Las nuevas instancias C4 están actualmente en vista previa privada, y las máquinas N4 están disponibles hoy en día. También en vista previa están las nuevas máquinas bare-metal C3, impulsadas por los Xeons de cuarta generación más antiguos, las instancias bare-metal optimizadas para memoria X4 (también en vista previa) y la Z3, la primera máquina virtual optimizada para almacenamiento de Google Cloud que promete ofrecer "el mayor IOPS para instancias optimizadas para almacenamiento entre los principales proveedores de nube".
Otras noticias • IA
Amazon refuerza su liderazgo tecnológico con inteligencia artificial y satélites
En su carta a los accionistas, Andy Jassy destaca la estrategia de Amazon en inteligencia artificial con Trainium, la competencia con Intel mediante Graviton, el...
AWS invierte 50.000 millones en OpenAI y genera controversia
Amazon Web Services (AWS) ha invertido 50.000 millones de dólares en OpenAI, generando debates sobre ética y competencia. Matt Garman, CEO de AWS, defiende la...
Tubi integra ChatGPT para recomendaciones personalizadas de contenido
Tubi ha lanzado una integración con ChatGPT, permitiendo a los usuarios recibir recomendaciones personalizadas de su vasta biblioteca de contenido mediante lenguaje natural. Esta innovación...
Mac Mini y Astropad revolucionan productividad en inteligencia artificial
La demanda del Mac Mini ha crecido, impulsada por su uso en inteligencia artificial. Astropad ha lanzado Workbench, una solución de escritorio remoto que permite...
Matei Zaharia recibe Premio ACM por revolucionar manejo de datos
Matei Zaharia, cofundador y CTO de Databricks, ha sido galardonado con el Premio ACM en Computación 2026. Su trabajo en Spark ha revolucionado el manejo...
OpenAI lanza plan para proteger a niños de la IA
El "Child Safety Blueprint" de OpenAI busca mitigar la explotación infantil relacionada con la IA, actualizando legislaciones, mejorando mecanismos de reporte y estableciendo salvaguardias en...
Google lanza aplicación de dictado AI para iOS
Google ha lanzado "Google AI Edge Eloquent", una innovadora aplicación de dictado para iOS que ofrece transcripciones precisas y personalizables. Con opciones de procesamiento local...
Arcee lanza Trinity, un modelo de lenguaje revolucionario y ético
Arcee, una startup estadounidense, lanza Trinity Large Thinking, un modelo de lenguaje de código abierto con 400 mil millones de parámetros. Ofrece flexibilidad y seguridad...
Lo más reciente
- 1
Mercor enfrenta crisis tras brecha de datos sensible y demandas
- 2
StubHub pagará 10 millones por falta de transparencia en precios
- 3
Tiroteo en Florida genera demanda contra OpenAI por ChatGPT
- 4
Anthropic limita acceso a Mythos para priorizar seguridad cibernética
- 5
Meta lanza Muse Spark y escala en la App Store
- 6
Instagram permite editar comentarios en 15 minutos tras publicación
- 7
Sierra presenta Ghostwriter, revolucionando el servicio al cliente

