Nvidia sorprende en su presentación en GTC
Durante la conferencia Google Cloud Next en Las Vegas, se han presentado una serie de nuevos tipos de instancias y aceleradores en la plataforma Google Cloud. A pesar de la reciente presentación de Nvidia de su plataforma Blackwell, no se espera que Google ofrezca estas máquinas pronto. Sin embargo, se espera que el soporte para Nvidia HGX B200 para cargas de trabajo de IA y HPC y GB200 NBL72 para el entrenamiento de modelos de lenguaje grande llegue a principios de 2025. Una novedad interesante es que los servidores GB200 estarán refrigerados por líquido.
Una nueva instancia para entrenar modelos de lenguaje grande
Para los desarrolladores que necesitan más potencia para entrenar modelos de lenguaje grande hoy en día, Google también ha anunciado la instancia A3 Mega. Esta instancia, desarrollada en colaboración con Nvidia, cuenta con las GPU H100 estándar de la industria, pero las combina con un nuevo sistema de red que puede ofrecer hasta el doble de ancho de banda por GPU. Además, se ha presentado la instancia A3 confidential, que permite a los clientes "proteger mejor la confidencialidad y la integridad de los datos sensibles y las cargas de trabajo de IA durante el entrenamiento y la inferencia".
Google lanza sus procesadores Cloud TPU v5p
En cuanto a los chips propios de Google, la compañía ha lanzado sus procesadores Cloud TPU v5p, los aceleradores de IA más potentes desarrollados internamente hasta la fecha, disponibles en general. Estos chips ofrecen una mejora del 2x en operaciones de punto flotante por segundo y una mejora del 3x en la velocidad de ancho de banda de memoria.
Nuevas opciones de almacenamiento optimizadas para IA
Además de los nuevos chips, Google también ha anunciado nuevas opciones de almacenamiento optimizadas para IA. Hyperdisk ML, actualmente en vista previa, es el servicio de almacenamiento de bloques de próxima generación de la compañía que puede mejorar los tiempos de carga de modelos hasta en un 3.7x, según Google.
Nuevas instancias tradicionales y optimizadas por Intel
Google Cloud también está lanzando una serie de instancias más tradicionales, impulsadas por los procesadores Intel de cuarta y quinta generación Xeon. Por ejemplo, las nuevas instancias C4 y N4 de propósito general contarán con los Xeons de quinta generación Emerald Rapids, con el C4 centrado en el rendimiento y el N4 en el precio. Las nuevas instancias C4 están actualmente en vista previa privada, y las máquinas N4 están disponibles hoy en día. También en vista previa están las nuevas máquinas bare-metal C3, impulsadas por los Xeons de cuarta generación más antiguos, las instancias bare-metal optimizadas para memoria X4 (también en vista previa) y la Z3, la primera máquina virtual optimizada para almacenamiento de Google Cloud que promete ofrecer "el mayor IOPS para instancias optimizadas para almacenamiento entre los principales proveedores de nube".
Otras noticias • IA
Osaurus revoluciona la IA local y en la nube para Apple
Osaurus es un servidor de modelos de lenguaje exclusivo para Apple que permite ejecutar IA de forma local o en la nube, ofreciendo flexibilidad y...
SpaceXAI pierde más de 50 empleados por presión laboral
SpaceXAI enfrenta una significativa fuga de talento, con más de 50 empleados abandonando la empresa desde su adquisición por SpaceX. La presión laboral, cambios en...
Campbell Brown lanza Forum AI para combatir desinformación digital
Campbell Brown, exjefa de noticias de Facebook, fundó Forum AI para abordar los desafíos de la inteligencia artificial en la información. Colaborando con expertos, busca...
Clawdmeter: Innovador dispositivo que fusiona diversión y productividad
El Clawdmeter es un dispositivo de código abierto que monitoriza el uso de Claude Code, combinando diversión y productividad con animaciones nostálgicas. Creado por Hermann...
Alianzas tecnológicas: expectativas desiguales y conflictos en colaboración
Las alianzas tecnológicas, como la de OpenAI y Apple, pueden generar expectativas desiguales y conflictos. La frustración de OpenAI por la integración insatisfactoria de ChatGPT...
Cerebras Systems recauda 5.500 millones y dispara acciones un 108%
Cerebras Systems ha recaudado 5.500 millones de dólares en su OPI, con acciones que inicialmente subieron un 108%. La empresa, especializada en chips para IA,...
Ian Crosby lanza Synthetic para revolucionar la contabilidad automatizada
Ian Crosby, tras el fracaso de Bench Accounting, lanza Synthetic, una startup que busca automatizar completamente la contabilidad mediante inteligencia artificial. Con 10 millones de...
Wirestock se convierte en líder de datos para inteligencia artificial
Wirestock ha transformado su modelo de negocio, pasando de ser una plataforma de fotografía a proveedor de datos para inteligencia artificial. Con más de 700,000...
Lo más reciente
- 1
Controversia entre General Catalyst y a16z resalta ética en inversión
- 2
Filtración de datos en Tabiq afecta a más de un millón
- 3
Crisis energética en Lake Tahoe por demanda de centros de datos
- 4
Accidentes de Robotaxis en Austin revelan desafíos de conducción autónoma
- 5
Trump en China: Seguridad extrema y tensiones persistentes
- 6
Aumento de precios eléctricos por demanda de centros de datos
- 7
OpenAI lanza herramientas financieras en ChatGPT Pro con Plaid

