IA | Voz avanzada

OpenAI presenta Modo de Voz Avanzado en ChatGPT Plus y Teams

Introducción al Modo de Voz Avanzado

OpenAI ha anunciado la implementación de su Modo de Voz Avanzado (AVM) para un número ampliado de clientes que utilizan la versión de pago de ChatGPT. Esta función de audio, que tiene como objetivo hacer que la interacción con ChatGPT sea más natural, se desplegará inicialmente para los usuarios de las suscripciones Plus y Teams. Los clientes de las categorías Enterprise y Edu comenzarán a tener acceso a esta nueva función la próxima semana.

La evolución de la interfaz es notable, ya que el Modo de Voz Avanzado ahora se presenta mediante una esfera azul animada, en lugar de los puntos negros animados que se mostraron durante la presentación de la tecnología en mayo. Esta actualización visual no solo es atractiva, sino que también ayuda a los usuarios a identificar fácilmente la función de voz dentro de la aplicación.

Accesibilidad y nuevas características

Los usuarios recibirán una notificación emergente en la aplicación de ChatGPT, junto al ícono de voz, cuando el AVM esté disponible para ellos. Durante el transcurso de esta semana, el Modo de Voz Avanzado se implementará para todos los usuarios de Plus y Teams en la aplicación de ChatGPT. Este despliegue es parte de un esfuerzo continuo por mejorar la experiencia del usuario y hacer que la interacción con la inteligencia artificial sea más fluida y agradable.

Además de la introducción del Modo de Voz Avanzado, OpenAI ha añadido varias características que enriquecen la experiencia del usuario. Se han incorporado Instrucciones Personalizadas, Memoria, cinco nuevas voces y mejoras en los acentos. Esto significa que los usuarios ahora pueden personalizar cómo ChatGPT responde a sus consultas y también recordar conversaciones pasadas para hacer referencia a ellas más tarde.

Nuevas voces inspiradas en la naturaleza

Una de las adiciones más emocionantes son las cinco nuevas voces que los usuarios podrán probar: Arbor, Maple, Sol, Spruce y Vale. Con estas incorporaciones, el número total de voces de ChatGPT asciende a nueve, casi igualando a las opciones de voz que ofrece la competencia. Nombres como Breeze, Juniper, Cove y Ember también están disponibles, todos ellos inspirados en elementos de la naturaleza. Esta elección de nombres podría ser un reflejo del objetivo del Modo de Voz Avanzado: hacer que la experiencia de usar ChatGPT se sienta más natural y orgánica.

Sin embargo, uno de los nombres que no aparece en esta lista es Sky, la voz que OpenAI presentó durante su actualización de primavera. Esta voz generó controversia, ya que la actriz Scarlett Johansson afirmó que sonaba demasiado similar a la suya, lo que llevó a OpenAI a retirar dicha voz para evitar conflictos legales. A pesar de que varios miembros del equipo de OpenAI hicieron referencia a la película "Her" en sus publicaciones en redes sociales, la empresa aseguró que nunca fue su intención imitar la voz de Johansson.

Características adicionales y limitaciones

A pesar de las emocionantes novedades, hay algunas características que aún no están disponibles en esta actualización. Por ejemplo, la función de compartir video y pantalla que OpenAI presentó durante su actualización de primavera aún no se ha implementado en el Modo de Voz Avanzado. Esta función permitiría a GPT-4o procesar simultáneamente información visual y auditiva, facilitando la interacción en tiempo real con preguntas sobre matemáticas o programación. En este momento, OpenAI no ha proporcionado una fecha específica para el lanzamiento de estas capacidades multimodales.

Sin embargo, la compañía ha indicado que ha realizado mejoras desde el lanzamiento de la prueba alfa limitada del AVM. Según OpenAI, la función de voz de ChatGPT ahora es más efectiva para entender acentos, lo que contribuye a conversaciones más fluidas y rápidas. En pruebas realizadas, se observaron algunos fallos técnicos, pero OpenAI asegura que se han realizado avances significativos para minimizar estos problemas.

Limitaciones geográficas y futuro del Modo de Voz Avanzado

Un aspecto a tener en cuenta es que el Modo de Voz Avanzado aún no está disponible en varias regiones, incluidas la Unión Europea, el Reino Unido, Suiza, Islandia, Noruega y Liechtenstein. Esto puede limitar el acceso a los usuarios en estas áreas y podría generar frustración entre aquellos que desean disfrutar de las nuevas características de ChatGPT. La expansión de la tecnología y su accesibilidad son temas que OpenAI debe abordar en el futuro.

En resumen, el Modo de Voz Avanzado de OpenAI representa un paso importante en la evolución de la interacción con la inteligencia artificial. Con nuevas voces, características de personalización y un enfoque en la naturalidad de la conversación, OpenAI está trabajando para que la experiencia de los usuarios sea más rica y satisfactoria. La atención a los detalles y la disposición para escuchar las preocupaciones de los usuarios son fundamentales para el desarrollo continuo de esta innovadora herramienta.


Crear Canciones Personalizadas
Publicidad


Otras noticias • IA

Banco pruebas

Nuevo banco de pruebas evalúa inteligencia artificial con acertijos

Investigadores han creado un banco de pruebas de acertijos para evaluar la inteligencia artificial (IA) de manera accesible y humana. Este enfoque revela las limitaciones...

Innovación tecnológica

Inteligencia artificial transforma la ingeniería de productos y colaboración

La inteligencia artificial está revolucionando la ingeniería de productos, facilitando la colaboración y la simulación digital. Startups como Trace.Space están modernizando procesos, permitiendo a las...

Acceso democratizado

Modelo S1 de IA democratiza acceso y plantea dilemas éticos

La investigación sobre el modelo s1 de IA, desarrollado con menos de 50 dólares, democratiza el acceso a la inteligencia artificial. Utilizando destilación de modelos,...

Robótica avanzada

Boston Dynamics y RAI Institute optimizan robot Atlas con IA

La colaboración entre Boston Dynamics y el RAI Institute se centra en mejorar el aprendizaje por refuerzo del robot humanoide Atlas. Utilizando simulaciones y modelos...

Evaluación compleja

Expertos proponen nuevas métricas para evaluar la inteligencia artificial

La inteligencia artificial ha avanzado significativamente, pero comparar su progreso con el coeficiente intelectual humano es problemático. Expertos abogan por nuevas métricas que reflejen mejor...

Competencia intensificada

Google lanza Gemini 2.0 Pro y desafía a DeepSeek

Google ha lanzado el modelo Gemini 2.0 Pro Experimental, intensificando la competencia con la startup china DeepSeek. Este nuevo modelo, con capacidad para procesar 2...

Derechos de autor

Musk y Tesla demandados por Alcon por derechos de autor

Elon Musk y Tesla enfrentan una demanda de Alcon Entertainment por supuesta violación de derechos de autor al utilizar imágenes generadas por IA inspiradas en...

Formación personalizada

La IA transforma el aprendizaje de habilidades blandas personalizadas

La inteligencia artificial está revolucionando el aprendizaje de habilidades blandas, permitiendo a los empleados acceder a formación personalizada y asequible. Plataformas como CodeSignal ofrecen cursos...