Introducción al Modo de Voz Avanzado
OpenAI ha anunciado la implementación de su Modo de Voz Avanzado (AVM) para un número ampliado de clientes que utilizan la versión de pago de ChatGPT. Esta función de audio, que tiene como objetivo hacer que la interacción con ChatGPT sea más natural, se desplegará inicialmente para los usuarios de las suscripciones Plus y Teams. Los clientes de las categorías Enterprise y Edu comenzarán a tener acceso a esta nueva función la próxima semana.
La evolución de la interfaz es notable, ya que el Modo de Voz Avanzado ahora se presenta mediante una esfera azul animada, en lugar de los puntos negros animados que se mostraron durante la presentación de la tecnología en mayo. Esta actualización visual no solo es atractiva, sino que también ayuda a los usuarios a identificar fácilmente la función de voz dentro de la aplicación.
Accesibilidad y nuevas características
Los usuarios recibirán una notificación emergente en la aplicación de ChatGPT, junto al ícono de voz, cuando el AVM esté disponible para ellos. Durante el transcurso de esta semana, el Modo de Voz Avanzado se implementará para todos los usuarios de Plus y Teams en la aplicación de ChatGPT. Este despliegue es parte de un esfuerzo continuo por mejorar la experiencia del usuario y hacer que la interacción con la inteligencia artificial sea más fluida y agradable.
Además de la introducción del Modo de Voz Avanzado, OpenAI ha añadido varias características que enriquecen la experiencia del usuario. Se han incorporado Instrucciones Personalizadas, Memoria, cinco nuevas voces y mejoras en los acentos. Esto significa que los usuarios ahora pueden personalizar cómo ChatGPT responde a sus consultas y también recordar conversaciones pasadas para hacer referencia a ellas más tarde.
Nuevas voces inspiradas en la naturaleza
Una de las adiciones más emocionantes son las cinco nuevas voces que los usuarios podrán probar: Arbor, Maple, Sol, Spruce y Vale. Con estas incorporaciones, el número total de voces de ChatGPT asciende a nueve, casi igualando a las opciones de voz que ofrece la competencia. Nombres como Breeze, Juniper, Cove y Ember también están disponibles, todos ellos inspirados en elementos de la naturaleza. Esta elección de nombres podría ser un reflejo del objetivo del Modo de Voz Avanzado: hacer que la experiencia de usar ChatGPT se sienta más natural y orgánica.
Sin embargo, uno de los nombres que no aparece en esta lista es Sky, la voz que OpenAI presentó durante su actualización de primavera. Esta voz generó controversia, ya que la actriz Scarlett Johansson afirmó que sonaba demasiado similar a la suya, lo que llevó a OpenAI a retirar dicha voz para evitar conflictos legales. A pesar de que varios miembros del equipo de OpenAI hicieron referencia a la película "Her" en sus publicaciones en redes sociales, la empresa aseguró que nunca fue su intención imitar la voz de Johansson.
Características adicionales y limitaciones
A pesar de las emocionantes novedades, hay algunas características que aún no están disponibles en esta actualización. Por ejemplo, la función de compartir video y pantalla que OpenAI presentó durante su actualización de primavera aún no se ha implementado en el Modo de Voz Avanzado. Esta función permitiría a GPT-4o procesar simultáneamente información visual y auditiva, facilitando la interacción en tiempo real con preguntas sobre matemáticas o programación. En este momento, OpenAI no ha proporcionado una fecha específica para el lanzamiento de estas capacidades multimodales.
Sin embargo, la compañía ha indicado que ha realizado mejoras desde el lanzamiento de la prueba alfa limitada del AVM. Según OpenAI, la función de voz de ChatGPT ahora es más efectiva para entender acentos, lo que contribuye a conversaciones más fluidas y rápidas. En pruebas realizadas, se observaron algunos fallos técnicos, pero OpenAI asegura que se han realizado avances significativos para minimizar estos problemas.
Limitaciones geográficas y futuro del Modo de Voz Avanzado
Un aspecto a tener en cuenta es que el Modo de Voz Avanzado aún no está disponible en varias regiones, incluidas la Unión Europea, el Reino Unido, Suiza, Islandia, Noruega y Liechtenstein. Esto puede limitar el acceso a los usuarios en estas áreas y podría generar frustración entre aquellos que desean disfrutar de las nuevas características de ChatGPT. La expansión de la tecnología y su accesibilidad son temas que OpenAI debe abordar en el futuro.
En resumen, el Modo de Voz Avanzado de OpenAI representa un paso importante en la evolución de la interacción con la inteligencia artificial. Con nuevas voces, características de personalización y un enfoque en la naturalidad de la conversación, OpenAI está trabajando para que la experiencia de los usuarios sea más rica y satisfactoria. La atención a los detalles y la disposición para escuchar las preocupaciones de los usuarios son fundamentales para el desarrollo continuo de esta innovadora herramienta.
Otras noticias • IA
NotebookLM de Google transforma la toma de notas móviles
NotebookLM de Google, disponible para dispositivos móviles a partir del 20 de mayo, revolucionará la toma de notas y la gestión de información. Con resúmenes...
OpenAI mejora IA tras incidentes de respuestas inapropiadas
OpenAI ha decidido implementar cambios significativos en sus modelos de IA tras incidentes de respuestas inapropiadas de ChatGPT. Se introducirán fases de prueba, mayor transparencia...
Airbnb lanza bot de IA que reduce consultas humanas un 15%
Airbnb ha implementado un bot de servicio al cliente basado en inteligencia artificial en EE. UU., con un 50% de usuarios utilizándolo. Esto ha reducido...
Reddit lanza chatbot para satisfacer a Seekers y aumentar compromiso
Reddit ha identificado dos tipos de usuarios: Scrollers, que buscan interacción comunitaria, y Seekers, que buscan respuestas. Para estos últimos, ha lanzado Reddit Answers, un...
Amazon presenta Alexa+ con IA generativa para interacciones mejoradas
Amazon ha lanzado Alexa+, un asistente digital mejorado con IA generativa, que busca ofrecer interacciones más naturales. Aunque enfrenta retos tecnológicos y limitaciones actuales, la...
Inteligencia artificial revoluciona ciencia, pero genera escepticismo persistente
La inteligencia artificial está transformando la investigación científica, con herramientas como las de FutureHouse que prometen acelerar descubrimientos. Sin embargo, persisten limitaciones y escepticismo entre...
Olmo 2 1B democratiza la IA con un billón de parámetros
Olmo 2 1B, lanzado por Ai2, es un modelo de inteligencia artificial con un billón de parámetros, diseñado para ser accesible y eficiente en dispositivos...
Claude de Anthropic se actualiza con nuevas integraciones avanzadas
Anthropic ha actualizado su chatbot Claude con nuevas integraciones que mejoran su conectividad y capacidad de investigación profunda. Asociaciones con empresas como Atlassian y Zapier...
Lo más reciente
- 1
Starbase: nueva ciudad de SpaceX que une empleados y comunidad
- 2
Desarrolladores latinoamericanos crecen ante demanda de talento en IA
- 3
Gemini 2.5 Pro de Google completa Pokémon Blue, un hito
- 4
Plataformas de segunda mano se adaptan y crecen en crisis
- 5
Inteligencia artificial prioriza compromiso y descuida calidad en interacciones
- 6
Gemini 2.5 de Google genera más contenido inapropiado y preocupaciones
- 7
Filtración en Raw expone datos sensibles y genera alarma