"Étonnant et embarrassant": OpenAI déploie son modèle vocal avancé

Quelques jours après avoir lancé une version plus "consciente" de ChatGPT à l'écrit, o1, OpenAI continue de mettre la pression sur ses concurrents en lançant une version plus avancée de son assistant vocal. Elle avait été annoncée en juin 2024.
Disponible pour les abonnés à ChatGPT Plus, la version payante du chatbot, cette version avancée permet de bénéficier de plusieurs améliorations importantes qui ne laissent personne indifférent.
Des premiers retours
Les premiers retours soufflent ainsi le chaud et le froid. Comme l'explique The Verge, qui a pu y avoir accès, cet assistant vocal plus avancé laisse place à de l'étonnement, mais aussi à un malaise: "Notre collègue Kylie a eu la chance de découvrir cette fonctionnalité avant sa sortie et ça l'a laissé à la fois étonnée et embarrassée."
Dans les commentaires, on constate d'ailleurs des utilisateurs surpris des premiers résultats: "Pouvoir simplement avoir une conversation sur un sujet en particulier comme l'histoire de la politique aux Etats-Unis est une bonne alternative à une visite sur Wikipedia (...) mais je reste sceptique sur le fait qu'une personne s'abonne pour simplement en profiter."
Avec cette version avancée de son assistant vocal, OpenAI a pour objectif de rendre les conversations entre lui et l'utilisateur plus naturel. Lorsqu'on lui pose une question, celui-ci va ainsi prendre en compte l'ensemble des mots d'une requête pour conscientiser sa réponse, par exemple en utilisant de l'émotion dans sa voix. Dans l'exemple dévoilé par OpenAI, il lui est demandé de trouver un message d'excuse en mandarin pour un retard chez la grand-mère fictive de l'utilisateur.
On voit ChatGPT prendre d'abord le temps d'expliquer que "c'est une bonne chose de s'excuser pour son retard", avant de commencer à imaginer une réponse. Mais durant ce laps de temps, l'utilisateur l'interrompt et lui demander de lui traduire le message en mandarin, ce que fait l'assistant vocal en prenant en compte les éléments passés de la conversation.
Ces fonctions avancées s'accompagnent de cinq voix différentes. Elles peuvent d'ailleurs adopter un accent localisé au besoin. Notez cependant qu'elles ne sont pas encore disponible en Europe. Elles le seront "prochainement", annonce OpenAI.