[情報] OpenAI提出GPT-4o模型 超級語音助理

作者: jackliao1990 (jack)   2024-05-14 02:59:17
https://openai.com/index/hello-gpt-4o/
GPT-4o是邁向更自然的人機互動的一步——它接受文字、音訊和圖像的任意組合作為輸入
,並產生文字、音訊和圖像的任意組合輸出。 它可以在短至 232 毫秒的時間內反應音訊
輸入,平均為 320 毫秒,這與人類在對話中的反應時間相似。它在英語文字和程式碼上的
表現與 GPT-4 Turbo 的效能相匹配,在非英語文字上的效能顯著提高,同時 API 的速度
也更快,成本降低了 50%。 與現有模型相比,GPT-4o 在視覺和音訊理解方面尤其出色。
從影片中的範例可以發現:GPT-4o已經可以不用停頓地跟人類對話,你可以在它講話時中途
打斷它,此外GPT-4o也更加情緒化-它可以理解你說話時的心情、有感情地跟你聊天、理解
你話語中帶有諷刺意味。它可以即時翻譯而幾乎沒有延遲,也可以跟另一個AI互相對話。
你可以叫它為你唱歌、隨意將鏡頭移到日常用品並詢問其西班牙文講法、將鏡頭移到紙本
數學題並請它教你解題、將手機鏡頭環顧四周並問它你現在的地點、參加公司視訊會議。
發布會上OpenAI特別感謝黃仁勳提供大量GPU。GPT-4o將在未來數週內逐步整合到各項產品
中,所有使用者都可免費使用,但付費訂閱戶可擁有免費使用者足足五倍的容量上限。

Links booklink

Contact Us: admin [ a t ] ucptt.com