OpenAI mejora el modo voz de ChatGPT con sonido más natural
La actualización incluye entonación más realista y traducción continua. El cambio, disponible para usuarios de pago, busca diálogos fluidos, aunque persisten errores ocasionales como sonidos inesperados. Se implementó este fin de semana en todas las plataformas.
«Voces que casi podrían ser humanas»
OpenAI detalló que el modo Advanced Voice ahora reproduce pausas, énfasis y matices emocionales como empatía o sarcasmo. Según la empresa, esto crea una experiencia «más orgánica». La función de traducción automática permite conversaciones multilingües sin interrupciones hasta que el usuario lo indique.
Limitaciones persistentes
La compañía advirtió que pueden darse variaciones en el tono o pitch, y que no se han corregido fallos como música de fondo no solicitada o respuestas incoherentes. Estos errores, vinculados a «alucinaciones» del modelo, afectan ocasionalmente a la calidad del audio.
De robots mecánicos a conversaciones fluidas
ChatGPT lanzó su modo voz en 2023 con voces sintéticas básicas. La evolución hacia un habla natural responde a la demanda de interacciones más humanizadas en asistentes de IA, un mercado donde rivales como Google y Meta también compiten.
Un salto técnico con margen de mejora
La actualización acerca a ChatGPT a la naturalidad humana, pero los fallos residuales muestran los retos técnicos pendientes. Su impacto dependerá de cómo los usuarios perciban estos avances en su uso cotidiano.