IA | Voz avanzada

OpenAI presenta Modo de Voz Avanzado en ChatGPT Plus y Teams

Introducción al Modo de Voz Avanzado

OpenAI ha anunciado la implementación de su Modo de Voz Avanzado (AVM) para un número ampliado de clientes que utilizan la versión de pago de ChatGPT. Esta función de audio, que tiene como objetivo hacer que la interacción con ChatGPT sea más natural, se desplegará inicialmente para los usuarios de las suscripciones Plus y Teams. Los clientes de las categorías Enterprise y Edu comenzarán a tener acceso a esta nueva función la próxima semana.

La evolución de la interfaz es notable, ya que el Modo de Voz Avanzado ahora se presenta mediante una esfera azul animada, en lugar de los puntos negros animados que se mostraron durante la presentación de la tecnología en mayo. Esta actualización visual no solo es atractiva, sino que también ayuda a los usuarios a identificar fácilmente la función de voz dentro de la aplicación.

Accesibilidad y nuevas características

Los usuarios recibirán una notificación emergente en la aplicación de ChatGPT, junto al ícono de voz, cuando el AVM esté disponible para ellos. Durante el transcurso de esta semana, el Modo de Voz Avanzado se implementará para todos los usuarios de Plus y Teams en la aplicación de ChatGPT. Este despliegue es parte de un esfuerzo continuo por mejorar la experiencia del usuario y hacer que la interacción con la inteligencia artificial sea más fluida y agradable.

Además de la introducción del Modo de Voz Avanzado, OpenAI ha añadido varias características que enriquecen la experiencia del usuario. Se han incorporado Instrucciones Personalizadas, Memoria, cinco nuevas voces y mejoras en los acentos. Esto significa que los usuarios ahora pueden personalizar cómo ChatGPT responde a sus consultas y también recordar conversaciones pasadas para hacer referencia a ellas más tarde.

Nuevas voces inspiradas en la naturaleza

Una de las adiciones más emocionantes son las cinco nuevas voces que los usuarios podrán probar: Arbor, Maple, Sol, Spruce y Vale. Con estas incorporaciones, el número total de voces de ChatGPT asciende a nueve, casi igualando a las opciones de voz que ofrece la competencia. Nombres como Breeze, Juniper, Cove y Ember también están disponibles, todos ellos inspirados en elementos de la naturaleza. Esta elección de nombres podría ser un reflejo del objetivo del Modo de Voz Avanzado: hacer que la experiencia de usar ChatGPT se sienta más natural y orgánica.

Sin embargo, uno de los nombres que no aparece en esta lista es Sky, la voz que OpenAI presentó durante su actualización de primavera. Esta voz generó controversia, ya que la actriz Scarlett Johansson afirmó que sonaba demasiado similar a la suya, lo que llevó a OpenAI a retirar dicha voz para evitar conflictos legales. A pesar de que varios miembros del equipo de OpenAI hicieron referencia a la película "Her" en sus publicaciones en redes sociales, la empresa aseguró que nunca fue su intención imitar la voz de Johansson.

Características adicionales y limitaciones

A pesar de las emocionantes novedades, hay algunas características que aún no están disponibles en esta actualización. Por ejemplo, la función de compartir video y pantalla que OpenAI presentó durante su actualización de primavera aún no se ha implementado en el Modo de Voz Avanzado. Esta función permitiría a GPT-4o procesar simultáneamente información visual y auditiva, facilitando la interacción en tiempo real con preguntas sobre matemáticas o programación. En este momento, OpenAI no ha proporcionado una fecha específica para el lanzamiento de estas capacidades multimodales.

Sin embargo, la compañía ha indicado que ha realizado mejoras desde el lanzamiento de la prueba alfa limitada del AVM. Según OpenAI, la función de voz de ChatGPT ahora es más efectiva para entender acentos, lo que contribuye a conversaciones más fluidas y rápidas. En pruebas realizadas, se observaron algunos fallos técnicos, pero OpenAI asegura que se han realizado avances significativos para minimizar estos problemas.

Limitaciones geográficas y futuro del Modo de Voz Avanzado

Un aspecto a tener en cuenta es que el Modo de Voz Avanzado aún no está disponible en varias regiones, incluidas la Unión Europea, el Reino Unido, Suiza, Islandia, Noruega y Liechtenstein. Esto puede limitar el acceso a los usuarios en estas áreas y podría generar frustración entre aquellos que desean disfrutar de las nuevas características de ChatGPT. La expansión de la tecnología y su accesibilidad son temas que OpenAI debe abordar en el futuro.

En resumen, el Modo de Voz Avanzado de OpenAI representa un paso importante en la evolución de la interacción con la inteligencia artificial. Con nuevas voces, características de personalización y un enfoque en la naturalidad de la conversación, OpenAI está trabajando para que la experiencia de los usuarios sea más rica y satisfactoria. La atención a los detalles y la disposición para escuchar las preocupaciones de los usuarios son fundamentales para el desarrollo continuo de esta innovadora herramienta.


Podcast El Desván de las Paradojas
Publicidad


Otras noticias • IA

Adquisición estratégica

Snowflake adquiere Observe por 1.000 millones para mejorar datos

Snowflake ha anunciado la adquisición de Observe, una plataforma de observabilidad de datos, por aproximadamente 1.000 millones de dólares. Esta integración mejorará la gestión y...

Pago anticipado

Nvidia impone pago anticipado por chips H200 en China

Nvidia ha implementado una política de pago anticipado para sus chips H200 en China, reflejando la incertidumbre política y comercial. Esta medida podría asegurar ingresos,...

Demanda ética

Elon Musk demanda a OpenAI por traicionar su misión original

Elon Musk ha demandado a OpenAI, alegando que ha traicionado su misión original al priorizar beneficios económicos. La decisión de un juez de llevar el...

Innovaciones AI

Google mejora Gmail con nuevas funciones de inteligencia artificial

Google ha lanzado nuevas funciones de inteligencia artificial en Gmail, incluyendo la "AI Inbox" para organizar correos, "AI Overviews" para búsquedas en lenguaje natural y...

Asistente inteligente

Ford lanzará asistente de IA y nuevo BlueCruise en 2027

Ford está desarrollando un asistente de inteligencia artificial que se integrará en sus vehículos en 2027, mejorando la experiencia del usuario. Además, presentará una nueva...

Salud digital

OpenAI lanza ChatGPT Health para mejorar el acceso a salud

OpenAI ha lanzado ChatGPT Health, una plataforma que facilita el acceso a información médica y promueve interacciones más cómodas sobre salud. Aunque ofrece personalización y...

Inversión masiva

Anthropic busca 10.000 millones para alcanzar valoración de 350.000 millones

Anthropic, impulsada por su modelo de lenguaje Claude, busca recaudar 10.000 millones de dólares, elevando su valoración a 350.000 millones. La creciente inversión en inteligencia...

Educación innovadora

Podcasts en educación: Google transforma el aula y motiva estudiantes

La introducción de podcasts en la educación, facilitada por Google, transforma el aula al captar el interés de los estudiantes y fomentar el aprendizaje autónomo....