OpenAI retrasa la llegada del modo de voz avanzado de ChatGPT

Modelo de lenguaje GPT-4o, que introduce el modo de voz avanzado en ChatGPT
Modelo de lenguaje GPT-4o, que introduce el modo de voz avanzado en ChatGPT - OPENAI
Publicado: miércoles, 26 junio 2024 11:09

   MADRID, 26 Jun. (Portaltic/EP) -

   OpenAI ha retrasado la llegada del modo de voz avanzado que introduce el modelo de lenguaje GPT-4o en el 'chatbot, y que habilita una conversación más natural, con "emociones y señales no verbales", para asegurarse de que cumplen los "altos estándares de seguridad y fiabilidad".

   GPT-4o, presentado en mayo, se diseñó para ofrecer una interacción entre la persona y la máquina "más natural", ya que tiene la capacidad de comprender una combinación de entradas de texto, audio e imagen y generar respuestas en la misma medida con gran velocidad.

    Incluye, además, un 'Modo voz' avanzado, que permite elegir entre una serie de voces para personalizar la interacción con el chatbot'. Precisamente, una característica que ha generado polémica y ha llegado a la retirada de la voz Sky por parecerse a la de la actriz Scarlett Johansson, quien ya puso voz a un asistente de inteligencia artificial en la película Her, de 2013.

   Este modo iba a probarse con un pequeño grupo de usuarios en julio, pero OpenAI ha decidido retrasar su inicio, porque necesitan "un mes mas" para alcanzar el estándar que se han marcado, como han informado a través de un comunicado publicado en X (antigua Twitter).

    En este tiempo, mejorarán la capacidad del modelo para detectar y rechazar contenido no apropiado y para mejorar la experiencia de usuario. También trabajarán en la infraestructura que respaldará su uso a gran escala y en tiempo real.

    La hoja de ruta contempla el lanzamiento de este modo de voz en otoño para los usuarios de la suscripción Plus, aunque puede cambiar. Adicionalmente, esperan incorporar nuevas capacidades de vídeo y uso compartido de pantalla.

"El modo de voz avanzado de ChatGPT puede comprender y responder con emociones y señales no verbales, acercándonos a conversaciones naturales en tiempo real con IA", aseguran desde OpenAI. Por ello, dicen, los plazos en los que está disponible dependerán de cumpla sus "altos estándares de seguridad y fiabilidad".

Leer más acerca de: