Introducción al Modo de Voz Avanzado
OpenAI ha anunciado la implementación de su Modo de Voz Avanzado (AVM) para un número ampliado de clientes que utilizan la versión de pago de ChatGPT. Esta función de audio, que tiene como objetivo hacer que la interacción con ChatGPT sea más natural, se desplegará inicialmente para los usuarios de las suscripciones Plus y Teams. Los clientes de las categorías Enterprise y Edu comenzarán a tener acceso a esta nueva función la próxima semana.
La evolución de la interfaz es notable, ya que el Modo de Voz Avanzado ahora se presenta mediante una esfera azul animada, en lugar de los puntos negros animados que se mostraron durante la presentación de la tecnología en mayo. Esta actualización visual no solo es atractiva, sino que también ayuda a los usuarios a identificar fácilmente la función de voz dentro de la aplicación.
Accesibilidad y nuevas características
Los usuarios recibirán una notificación emergente en la aplicación de ChatGPT, junto al ícono de voz, cuando el AVM esté disponible para ellos. Durante el transcurso de esta semana, el Modo de Voz Avanzado se implementará para todos los usuarios de Plus y Teams en la aplicación de ChatGPT. Este despliegue es parte de un esfuerzo continuo por mejorar la experiencia del usuario y hacer que la interacción con la inteligencia artificial sea más fluida y agradable.
Además de la introducción del Modo de Voz Avanzado, OpenAI ha añadido varias características que enriquecen la experiencia del usuario. Se han incorporado Instrucciones Personalizadas, Memoria, cinco nuevas voces y mejoras en los acentos. Esto significa que los usuarios ahora pueden personalizar cómo ChatGPT responde a sus consultas y también recordar conversaciones pasadas para hacer referencia a ellas más tarde.
Nuevas voces inspiradas en la naturaleza
Una de las adiciones más emocionantes son las cinco nuevas voces que los usuarios podrán probar: Arbor, Maple, Sol, Spruce y Vale. Con estas incorporaciones, el número total de voces de ChatGPT asciende a nueve, casi igualando a las opciones de voz que ofrece la competencia. Nombres como Breeze, Juniper, Cove y Ember también están disponibles, todos ellos inspirados en elementos de la naturaleza. Esta elección de nombres podría ser un reflejo del objetivo del Modo de Voz Avanzado: hacer que la experiencia de usar ChatGPT se sienta más natural y orgánica.
Sin embargo, uno de los nombres que no aparece en esta lista es Sky, la voz que OpenAI presentó durante su actualización de primavera. Esta voz generó controversia, ya que la actriz Scarlett Johansson afirmó que sonaba demasiado similar a la suya, lo que llevó a OpenAI a retirar dicha voz para evitar conflictos legales. A pesar de que varios miembros del equipo de OpenAI hicieron referencia a la película "Her" en sus publicaciones en redes sociales, la empresa aseguró que nunca fue su intención imitar la voz de Johansson.
Características adicionales y limitaciones
A pesar de las emocionantes novedades, hay algunas características que aún no están disponibles en esta actualización. Por ejemplo, la función de compartir video y pantalla que OpenAI presentó durante su actualización de primavera aún no se ha implementado en el Modo de Voz Avanzado. Esta función permitiría a GPT-4o procesar simultáneamente información visual y auditiva, facilitando la interacción en tiempo real con preguntas sobre matemáticas o programación. En este momento, OpenAI no ha proporcionado una fecha específica para el lanzamiento de estas capacidades multimodales.
Sin embargo, la compañía ha indicado que ha realizado mejoras desde el lanzamiento de la prueba alfa limitada del AVM. Según OpenAI, la función de voz de ChatGPT ahora es más efectiva para entender acentos, lo que contribuye a conversaciones más fluidas y rápidas. En pruebas realizadas, se observaron algunos fallos técnicos, pero OpenAI asegura que se han realizado avances significativos para minimizar estos problemas.
Limitaciones geográficas y futuro del Modo de Voz Avanzado
Un aspecto a tener en cuenta es que el Modo de Voz Avanzado aún no está disponible en varias regiones, incluidas la Unión Europea, el Reino Unido, Suiza, Islandia, Noruega y Liechtenstein. Esto puede limitar el acceso a los usuarios en estas áreas y podría generar frustración entre aquellos que desean disfrutar de las nuevas características de ChatGPT. La expansión de la tecnología y su accesibilidad son temas que OpenAI debe abordar en el futuro.
En resumen, el Modo de Voz Avanzado de OpenAI representa un paso importante en la evolución de la interacción con la inteligencia artificial. Con nuevas voces, características de personalización y un enfoque en la naturalidad de la conversación, OpenAI está trabajando para que la experiencia de los usuarios sea más rica y satisfactoria. La atención a los detalles y la disposición para escuchar las preocupaciones de los usuarios son fundamentales para el desarrollo continuo de esta innovadora herramienta.
Otras noticias • IA
Anthropic redefine evaluaciones para destacar habilidades humanas en selección
La inteligencia artificial ha transformado la evaluación de candidatos, planteando desafíos en la distinción entre habilidades humanas y rendimiento de IA. Anthropic ha rediseñado sus...
Google lanza Gemini, IA gratuita para preparar el SAT
Google lanza Gemini, una herramienta de IA que ofrece exámenes de práctica gratuitos para el SAT, facilitando la preparación a estudiantes sin recursos. Aunque promete...
Google lanza búsqueda conversacional con inteligencia personalizada y privacidad
Google ha lanzado la función de búsqueda conversacional AI Mode, que incorpora la "Inteligencia Personal", permitiendo a la IA ofrecer respuestas personalizadas al acceder a...
Google DeepMind adquiere Hume AI para potenciar IA emocional
La adquisición de Hume AI por Google DeepMind destaca la importancia de la inteligencia emocional en la IA de voz. Este movimiento refleja la tendencia...
RadixArk optimiza la inferencia de IA con velocidad y eficiencia
RadixArk, surgida de SGLang, se centra en optimizar la inferencia de modelos de IA, prometiendo velocidad y eficiencia en costos. Fundada por Ying Sheng, la...
Anthropic presenta nueva Constitución de Claude para inteligencia artificial ética
Anthropic ha lanzado una versión revisada de la Constitución de Claude, un marco ético para su chatbot. Este documento enfatiza la seguridad, la ética en...
Todoist Ramble transforma el habla en tareas organizadas eficientemente
Todoist Ramble es una innovadora herramienta de gestión de tareas que utiliza inteligencia artificial para convertir el habla en tareas organizadas. Disponible en múltiples plataformas...
Escándalo en NeurIPS revela 100 citaciones ficticias en investigaciones
La startup GPTZero ha descubierto 100 citaciones ficticias en 51 trabajos de la conferencia NeurIPS, lo que plantea serias dudas sobre la integridad del proceso...
Lo más reciente
- 1
Anduril creará 5,500 empleos y campus de I+D en Long Beach
- 2
Blockit transforma calendarios con IA y atrae a Sequoia Capital
- 3
OpenAI reestructura liderazgo para fortalecer su enfoque empresarial
- 4
GM traslada producción a Kansas y finaliza Chevrolet Bolt EV
- 5
Inteligencia artificial avanza lentamente en trabajos del conocimiento
- 6
Debate sobre monetización de inteligencia artificial y experiencia del usuario
- 7
Ring lanzará herramienta para autenticar vídeos en diciembre 2025

