GPT-4o可以感知用戶聲音中的情緒語調,包括悲傷、興奮或者唱歌。

OpenAI向部分用戶開放GPT-4o語音模式,今年秋季將覆蓋所有付費用戶

2024-08-01 21:55:14發(fā)布     來源:多知網(wǎng)    作者:Mint  

  多知網(wǎng)8月1日消息,OpenAI宣布向部分ChatGPT Plus用戶推出高級語音模式,并計劃于秋季向所有ChatGPT Plus用戶開放。新的音頻功能將允許用戶與ChatGPT對話并立即接收實時響應,也可以在ChatGPT說話時打斷它,同時語音模式可分辨不同的語音語調所傳達的信息。

  使用過程中,它的聲音會聽起來更自然,并利用聲音傳達各種不同情緒。OpenAI還透露,GPT-4o可以感知用戶聲音中的情緒語調,包括悲傷、興奮或者唱歌。

  目前GPT-4o語音模式可使用四種預設聲音,Juniper、Breeze、Cove和Ember,這些聲音是與付費配音演員合作制作的。

  新的語音模式由OpenAI的GPT-4o模型提供支持,該模型結合了語音、文本和視覺功能。

  為了收集反饋,OpenAI最初向ChatGPT Plus的“一小部分用戶”推出語音高級功能,但OpenAI表示,將在今年秋天向所有ChatGPT Plus用戶開放。OpenAI將語音通話體驗的推出時間從6月下旬推遲到7月,稱需要時間達到發(fā)布標準。

  目前,Alpha組的用戶將在ChatGPT中收到提醒,并將收到一封郵件介紹如何使用

  OpenAI也表示,已采用過濾器識別和阻止生成音樂或其他受版權保護的音頻的請求,并將文本模型中使用的相同安全機制應用于GPT-4o,防止其違反法律,產(chǎn)生有害內(nèi)容——“我們設置了護欄來阻止對暴力或受版權保護內(nèi)容的請求。”

  另據(jù)了解,視頻和屏幕共享等更高級功能將在晚些時候推出。