Nvidia lanza una nueva plataforma de software para simplificar el despliegue de modelos de IA
En su conferencia GTC, Nvidia anunció hoy Nvidia NIM, una nueva plataforma de software diseñada para agilizar el despliegue de modelos de IA personalizados y pre-entrenados en entornos de producción. NIM aprovecha el trabajo de software que Nvidia ha realizado en torno a la inferencia y la optimización de modelos, haciéndolo fácilmente accesible al combinar un modelo dado con un motor de inferencia optimizado y empaquetarlo en un contenedor, convirtiéndolo en un microservicio accesible. "Normalmente, llevaría a los desarrolladores semanas, si no meses, enviar contenedores similares", argumenta Nvidia, "y eso si la empresa incluso tiene talento interno de IA. Con NIM, Nvidia claramente tiene como objetivo crear un ecosistema de contenedores listos para la IA que utilicen su hardware como capa fundamental con estos microservicios curados como la capa de software principal para las empresas que desean acelerar su hoja de ruta de IA".
Amplia gama de modelos y colaboraciones con grandes empresas tecnológicas
NIM actualmente incluye soporte para modelos de NVIDIA, A121, Adept, Cohere, Getty Images y Shutterstock, así como modelos abiertos de Google, Hugging Face, Meta, Microsoft, Mistral AI y Stability AI. Nvidia ya está trabajando con Amazon, Google y Microsoft para que estos microservicios de NIM estén disponibles en SageMaker, Kubernetes Engine y Azure AI, respectivamente. También se integrarán en frameworks como Deepset, LangChain y LlamaIndex. La empresa tiene como objetivo seguir añadiendo capacidades adicionales con el tiempo, como por ejemplo, hacer que el operador Nvidia RAG LLM esté disponible como un NIM, lo que promete facilitar la construcción de chatbots de IA generativos que pueden integrarse con datos personalizados.
Colaboraciones con clientes y socios estratégicos
Esta conferencia no estaría completa sin algunos anuncios de clientes y socios. Entre los usuarios actuales de NIM se encuentran empresas como Box, Cloudera, Cohesity, Datastax, Dropbox y NetApp. "Las plataformas empresariales establecidas están sentadas sobre una mina de oro de datos que pueden transformarse en copilotos de IA generativos", dijo Jensen Huang, fundador y CEO de NVIDIA. "Creados con nuestro ecosistema de socios, estos microservicios de IA en contenedores son los bloques de construcción para que las empresas de todos los sectores se conviertan en empresas de IA".
Impulso de Nvidia en el ámbito empresarial
En cuanto al motor de inferencia, Nvidia utilizará el Triton Inference Server, TensorRT y TensorRT-LLM. Algunos de los microservicios de Nvidia disponibles a través de NIM incluirán Riva para personalizar modelos de habla y traducción, cuOpt para optimizaciones de enrutamiento y el modelo Earth-2 para simulaciones meteorológicas y climáticas. "Creemos que la GPU de Nvidia es el mejor lugar para ejecutar la inferencia de estos modelos", dijo Manuvir Das, jefe de informática empresarial de Nvidia, "y creemos que NVIDIA NIM es el mejor paquete de software, el mejor tiempo de ejecución, para que los desarrolladores construyan encima y se centren en las aplicaciones empresariales, y dejen que Nvidia haga el trabajo de producir estos modelos para ellos de la manera más eficiente y de calidad empresarial, para que puedan hacer el resto de su trabajo".
Otras noticias • IA
Anthropic demanda al DOD por restricciones en colaboración gubernamental
Anthropic ha demandado al Departamento de Defensa por ser etiquetada como riesgo para la cadena de suministro, impidiendo su colaboración con el gobierno. La empresa...
Neura Robotics y Qualcomm unen fuerzas para revolucionar la robótica
La colaboración entre Neura Robotics y Qualcomm destaca la importancia de unir fuerzas en el desarrollo de soluciones robóticas avanzadas. Esta alianza, centrada en la...
Nscale, respaldada por Nvidia, alcanza valoración de 14.600 millones
Nscale, respaldada por Nvidia, alcanza una valoración de 14.600 millones de dólares gracias a su estrategia de integración vertical y financiación significativa. Con proyectos ambiciosos...
Expertos piden regulación ética para una inteligencia artificial segura
La "Declaración Pro-Humana" aboga por una regulación responsable de la inteligencia artificial (IA) para evitar su uso perjudicial. Reúne a expertos de diversas ideologías, enfatizando...
Caitlin Kalinowski renuncia a OpenAI por preocupaciones éticas
Caitlin Kalinowski, ejecutiva de OpenAI, renunció por preocupaciones éticas tras un acuerdo controvertido con el Pentágono sobre el uso de IA en defensa. Su decisión...
Defensa de EE. UU. clasifica a Anthropic como riesgo ético
El Departamento de Defensa de EE. UU. ha clasificado a Anthropic como un riesgo por su negativa a ceder su tecnología para usos militares. Microsoft...
Claude supera a ChatGPT y gana la confianza del público
Claude, el modelo de inteligencia artificial de Anthropic, ha experimentado un crecimiento inesperado en usuarios y descargas, superando a ChatGPT en ciertos aspectos. Su postura...
Meta abre WhatsApp a chatbots de terceros en Brasil
Meta ha permitido el uso de chatbots de terceros en WhatsApp en Brasil, tras presiones regulatorias de CADE. Aunque esto fomenta la competencia, los altos...
Lo más reciente
- 1
FAA aprueba pruebas de aeronaves eléctricas eVTOL para empresas
- 2
Empleados de OpenAI y Google DeepMind respaldan demanda de Anthropic
- 3
Bluesky cambia de CEO ante desafíos de moderación y regulación
- 4
Inteligencia artificial transforma desarrollo de software y mejora calidad
- 5
Ticketmaster bajo fuego por precios altos y prácticas monopolísticas
- 6
Chevrolet Bolt regresa impulsando la electrificación y sostenibilidad de GM
- 7
OpenAI adquiere Promptfoo para fortalecer la seguridad de IA

