Introducción al Modo de Voz Avanzado
OpenAI ha anunciado la implementación de su Modo de Voz Avanzado (AVM) para un número ampliado de clientes que utilizan la versión de pago de ChatGPT. Esta función de audio, que tiene como objetivo hacer que la interacción con ChatGPT sea más natural, se desplegará inicialmente para los usuarios de las suscripciones Plus y Teams. Los clientes de las categorías Enterprise y Edu comenzarán a tener acceso a esta nueva función la próxima semana.
La evolución de la interfaz es notable, ya que el Modo de Voz Avanzado ahora se presenta mediante una esfera azul animada, en lugar de los puntos negros animados que se mostraron durante la presentación de la tecnología en mayo. Esta actualización visual no solo es atractiva, sino que también ayuda a los usuarios a identificar fácilmente la función de voz dentro de la aplicación.
Accesibilidad y nuevas características
Los usuarios recibirán una notificación emergente en la aplicación de ChatGPT, junto al ícono de voz, cuando el AVM esté disponible para ellos. Durante el transcurso de esta semana, el Modo de Voz Avanzado se implementará para todos los usuarios de Plus y Teams en la aplicación de ChatGPT. Este despliegue es parte de un esfuerzo continuo por mejorar la experiencia del usuario y hacer que la interacción con la inteligencia artificial sea más fluida y agradable.
Además de la introducción del Modo de Voz Avanzado, OpenAI ha añadido varias características que enriquecen la experiencia del usuario. Se han incorporado Instrucciones Personalizadas, Memoria, cinco nuevas voces y mejoras en los acentos. Esto significa que los usuarios ahora pueden personalizar cómo ChatGPT responde a sus consultas y también recordar conversaciones pasadas para hacer referencia a ellas más tarde.
Nuevas voces inspiradas en la naturaleza
Una de las adiciones más emocionantes son las cinco nuevas voces que los usuarios podrán probar: Arbor, Maple, Sol, Spruce y Vale. Con estas incorporaciones, el número total de voces de ChatGPT asciende a nueve, casi igualando a las opciones de voz que ofrece la competencia. Nombres como Breeze, Juniper, Cove y Ember también están disponibles, todos ellos inspirados en elementos de la naturaleza. Esta elección de nombres podría ser un reflejo del objetivo del Modo de Voz Avanzado: hacer que la experiencia de usar ChatGPT se sienta más natural y orgánica.
Sin embargo, uno de los nombres que no aparece en esta lista es Sky, la voz que OpenAI presentó durante su actualización de primavera. Esta voz generó controversia, ya que la actriz Scarlett Johansson afirmó que sonaba demasiado similar a la suya, lo que llevó a OpenAI a retirar dicha voz para evitar conflictos legales. A pesar de que varios miembros del equipo de OpenAI hicieron referencia a la película "Her" en sus publicaciones en redes sociales, la empresa aseguró que nunca fue su intención imitar la voz de Johansson.
Características adicionales y limitaciones
A pesar de las emocionantes novedades, hay algunas características que aún no están disponibles en esta actualización. Por ejemplo, la función de compartir video y pantalla que OpenAI presentó durante su actualización de primavera aún no se ha implementado en el Modo de Voz Avanzado. Esta función permitiría a GPT-4o procesar simultáneamente información visual y auditiva, facilitando la interacción en tiempo real con preguntas sobre matemáticas o programación. En este momento, OpenAI no ha proporcionado una fecha específica para el lanzamiento de estas capacidades multimodales.
Sin embargo, la compañía ha indicado que ha realizado mejoras desde el lanzamiento de la prueba alfa limitada del AVM. Según OpenAI, la función de voz de ChatGPT ahora es más efectiva para entender acentos, lo que contribuye a conversaciones más fluidas y rápidas. En pruebas realizadas, se observaron algunos fallos técnicos, pero OpenAI asegura que se han realizado avances significativos para minimizar estos problemas.
Limitaciones geográficas y futuro del Modo de Voz Avanzado
Un aspecto a tener en cuenta es que el Modo de Voz Avanzado aún no está disponible en varias regiones, incluidas la Unión Europea, el Reino Unido, Suiza, Islandia, Noruega y Liechtenstein. Esto puede limitar el acceso a los usuarios en estas áreas y podría generar frustración entre aquellos que desean disfrutar de las nuevas características de ChatGPT. La expansión de la tecnología y su accesibilidad son temas que OpenAI debe abordar en el futuro.
En resumen, el Modo de Voz Avanzado de OpenAI representa un paso importante en la evolución de la interacción con la inteligencia artificial. Con nuevas voces, características de personalización y un enfoque en la naturalidad de la conversación, OpenAI está trabajando para que la experiencia de los usuarios sea más rica y satisfactoria. La atención a los detalles y la disposición para escuchar las preocupaciones de los usuarios son fundamentales para el desarrollo continuo de esta innovadora herramienta.
Otras noticias • IA
OpenAI presenta innovadoras funciones de inteligencia vocal y traducción
OpenAI ha lanzado nuevas funcionalidades de inteligencia vocal, incluyendo modelos avanzados de conversación, traducción en tiempo real y transcripción en vivo. Estas herramientas prometen mejorar...
Perplexity lanza PC para Mac con inteligencia artificial integrada
Perplexity ha lanzado Personal Computer para usuarios de Mac, una herramienta que integra inteligencia artificial en dispositivos locales, mejorando la gestión de flujos de trabajo....
OpenAI presenta Trusted Contact para mejorar la seguridad emocional
OpenAI ha lanzado la función Trusted Contact para alertar a un tercero de confianza sobre menciones de autolesionismo en ChatGPT. Esta medida busca mejorar la...
Bumble elimina deslizamiento y apuesta por inteligencia artificial
Bumble eliminará la función de deslizamiento en un intento de revitalizar su modelo de negocio, enfrentando una caída en usuarios de pago. La CEO Whitney...
Musk y OpenAI: Tensión entre seguridad y lucro en IA
El enfrentamiento legal entre Elon Musk y OpenAI destaca la tensión entre la seguridad de la inteligencia artificial y la búsqueda de beneficios económicos. Testimonios...
Inteligencia artificial transforma la seguridad del software y ciberseguridad
La inteligencia artificial, como Mythos de Anthropic, revoluciona la seguridad del software al detectar vulnerabilidades críticas que antes pasaban desapercibidas. A pesar de su eficacia,...
Moonshot AI destaca en inteligencia artificial con modelo Kimi K2.5
Moonshot AI, fundada en 2023, ha crecido rápidamente en el sector de la inteligencia artificial en China, destacando con su modelo Kimi K2.5. Su éxito...
xAI y Anthropic transforman la industria tecnológica con nueva alianza
La asociación entre xAI y Anthropic, que implica la compra de capacidad de computación, marca un cambio en la industria tecnológica. xAI se posiciona como...
Lo más reciente
- 1
Quiebra de Parker revela vulnerabilidades en fintech de tarjetas corporativas
- 2
General Motors acuerda 12,75 millones tras escándalo de datos
- 3
Fujifilm Instax Wide 400 revitaliza la fotografía instantánea social
- 4
Oracle despide a miles sin aviso ni indemnización adecuada
- 5
Inteligencia artificial despide empleados pese a ingresos crecientes
- 6
Avride y Uber bajo investigación por accidentes de robotaxis
- 7
Allison Stern lanza fondo de inversión para madres consumidoras

