OpenAI lanza nuevas APIs en su primer día para desarrolladores
OpenAI, la empresa de inteligencia artificial, ha presentado una serie de nuevas APIs durante su primer día para desarrolladores. Estas APIs ofrecen diversas funcionalidades, como la creación de imágenes a partir de texto y la conversión de texto a voz. Además, OpenAI ha lanzado la última versión de su modelo de reconocimiento automático de voz de código abierto, Whisper large-v3.
DALL-E 3: la API que convierte texto en imágenes
Una de las principales novedades presentadas por OpenAI es la API DALL-E 3, que permite convertir texto en imágenes. Esta API, que ya estaba disponible en ChatGPT y Bing Chat, incorpora una moderación integrada para evitar un mal uso de la tecnología. Según OpenAI, la API DALL-E 3 ofrece diferentes opciones de formato y calidad, con resoluciones que van desde 1024×1024 hasta 1792×1024. El precio por imagen generada comienza en $0.04.
Sin embargo, la API DALL-E 3 tiene algunas limitaciones en comparación con la versión anterior, DALL-E 2. A diferencia de esta última, la API DALL-E 3 no puede utilizarse para crear versiones editadas de imágenes ni para generar variaciones de una imagen existente. Además, OpenAI ha implementado una modificación automática en las solicitudes de generación enviadas a DALL-E 3, con el objetivo de mejorar la seguridad y añadir más detalles a las imágenes generadas. Esta modificación automática podría resultar en imágenes menos precisas, dependiendo del texto de entrada.
Audio API: convierte texto en voz
OpenAI también ha lanzado la API de texto a voz, llamada Audio API. Esta API ofrece seis voces predefinidas para elegir y dos variantes de modelos de inteligencia artificial generativa. Según Sam Altman, representante de OpenAI, esta tecnología de síntesis de voz es mucho más natural que otras opciones disponibles en el mercado, lo que la hace ideal para aplicaciones de aprendizaje de idiomas y asistencia por voz.
A diferencia de otras plataformas y herramientas de síntesis de voz, OpenAI no ofrece una forma de controlar el tono emocional del audio generado. En la documentación de la API de Audio, la empresa señala que ciertos factores, como la capitalización o la gramática del texto, pueden influir en cómo suenan las voces generadas. Sin embargo, OpenAI reconoce que los resultados de sus pruebas internas en este aspecto han sido mixtos.
Whisper large-v3: la última versión del modelo de reconocimiento automático de voz
En otro anuncio relacionado, OpenAI ha lanzado la última versión de su modelo de reconocimiento automático de voz de código abierto, Whisper large-v3. Según la empresa, esta nueva versión ofrece un rendimiento mejorado en diferentes idiomas. El modelo está disponible en GitHub bajo una licencia permisiva, lo que permite a los desarrolladores utilizarlo y modificarlo según sus necesidades.
En conclusión, OpenAI ha presentado varias novedades durante su primer día para desarrolladores. Las nuevas APIs DALL-E 3 y Audio API ofrecen funcionalidades interesantes para la generación de imágenes a partir de texto y la conversión de texto a voz, respectivamente. Además, la última versión del modelo Whisper large-v3 promete un mejor rendimiento en el reconocimiento automático de voz. Estas nuevas herramientas de OpenAI ofrecen a los desarrolladores más posibilidades para crear aplicaciones y servicios basados en inteligencia artificial.
Otras noticias • IA
NotebookLM de Google transforma la toma de notas móviles
NotebookLM de Google, disponible para dispositivos móviles a partir del 20 de mayo, revolucionará la toma de notas y la gestión de información. Con resúmenes...
OpenAI mejora IA tras incidentes de respuestas inapropiadas
OpenAI ha decidido implementar cambios significativos en sus modelos de IA tras incidentes de respuestas inapropiadas de ChatGPT. Se introducirán fases de prueba, mayor transparencia...
Airbnb lanza bot de IA que reduce consultas humanas un 15%
Airbnb ha implementado un bot de servicio al cliente basado en inteligencia artificial en EE. UU., con un 50% de usuarios utilizándolo. Esto ha reducido...
Reddit lanza chatbot para satisfacer a Seekers y aumentar compromiso
Reddit ha identificado dos tipos de usuarios: Scrollers, que buscan interacción comunitaria, y Seekers, que buscan respuestas. Para estos últimos, ha lanzado Reddit Answers, un...
Amazon presenta Alexa+ con IA generativa para interacciones mejoradas
Amazon ha lanzado Alexa+, un asistente digital mejorado con IA generativa, que busca ofrecer interacciones más naturales. Aunque enfrenta retos tecnológicos y limitaciones actuales, la...
Inteligencia artificial revoluciona ciencia, pero genera escepticismo persistente
La inteligencia artificial está transformando la investigación científica, con herramientas como las de FutureHouse que prometen acelerar descubrimientos. Sin embargo, persisten limitaciones y escepticismo entre...
Olmo 2 1B democratiza la IA con un billón de parámetros
Olmo 2 1B, lanzado por Ai2, es un modelo de inteligencia artificial con un billón de parámetros, diseñado para ser accesible y eficiente en dispositivos...
Claude de Anthropic se actualiza con nuevas integraciones avanzadas
Anthropic ha actualizado su chatbot Claude con nuevas integraciones que mejoran su conectividad y capacidad de investigación profunda. Asociaciones con empresas como Atlassian y Zapier...
Lo más reciente
- 1
Starbase: nueva ciudad de SpaceX que une empleados y comunidad
- 2
Desarrolladores latinoamericanos crecen ante demanda de talento en IA
- 3
Gemini 2.5 Pro de Google completa Pokémon Blue, un hito
- 4
Plataformas de segunda mano se adaptan y crecen en crisis
- 5
Inteligencia artificial prioriza compromiso y descuida calidad en interacciones
- 6
Gemini 2.5 de Google genera más contenido inapropiado y preocupaciones
- 7
Filtración en Raw expone datos sensibles y genera alarma