在首次向公眾展示四個月后,終于宣布將向所有付費用戶開放的高級人工智能語音助手功能——“高級語音模式”( Mode,簡稱AVM)。

于周二(24日)宣布,所有付費訂閱 Plus和Team計劃的用戶,都將可以使用新的AVM功能。該功能將在未來幾天逐步推出,并首先在美國市場上線。下周,該功能將向 Edu和計劃的訂閱者開放。

據悉,AVM提高了外語對話的速度、流暢度,并改進口音。此外,AVM還新增了兩大功能:為語音助手存儲“自定義指令”,以及記住用戶希望語音助手表現何種行為的“記憶”功能。這意味著,用戶可以利用自定義指令和“記憶”來確保語音模式是個性化的,AVM會根據他們對所有對話的偏好做出響應。

還推出了五種不同風格的新聲音:、、Sol、和Vale,加上之前老版本的四種聲音、、Cove和,可選聲音達到九種。值得注意的是,被指模仿某著名女演員的聲音Sky已被撤下。

這一更新意味著,的Plus版個人用戶和小型企業團隊用戶()可以通過“說話”的方式,而不是輸入提示來使用聊天機器人。當用戶在應用程序上進入語音模式時,他們會通過一個彈出窗口知道他們已經進入了高級語音助手。

AVM的另一個亮點是,它可以用超過50種語言說“對不起,我遲到了”。據發布的視頻顯示,用戶要求語音助手表達,由于讓奶奶久等了,向奶奶致歉。AVM先用英語流暢地總結了一遍,并在用戶表示“奶奶只會說普通話”后,又用標準的中文普通話表達了一遍。

不過,這些更新只適用于的AI模型GPT-4o,不適用于最近發布的預覽模型o1。今年5月,首次展示了這款語音產品,但在6月因解決潛在安全問題而推遲發布。到了7月,該功能也只面向有限數量的 Plus用戶開放。

新的語音模式缺少5月展示過的不少功能,比如計算機視覺功能。該功能可讓GPT僅通過使用智能手機的攝像頭就對用戶的舞蹈動作提供語音反饋。