欧美三级不卡/成人97视频/四虎成人精品永久免费av九九 /国产一区二区精品91 - 成人三级在线播放

OpenAI 推出“推理”模型 o1 API 并更新多項(xiàng)開(kāi)發(fā)者工具

2024-12-18 10:38:34   |   探索者   |   2325

12月18日,在“OpenAI 12天”活動(dòng)的第9天,OpenAI 今日宣布其全新“推理”人工智能模型 o1 正式通過(guò) API 向部分開(kāi)發(fā)者開(kāi)放,同時(shí)同步更新了包括 GPT-4o、實(shí)時(shí) API 以及微調(diào) API 等多項(xiàng)開(kāi)發(fā)者工具。

OpenAI 表示,o1 模型的 API 已經(jīng)對(duì)部分開(kāi)發(fā)者開(kāi)放,首批獲得使用權(quán)限的開(kāi)發(fā)者為 OpenAI “第五級(jí)”用戶(hù)。這些開(kāi)發(fā)者需要滿(mǎn)足兩個(gè)條件:在 OpenAI 平臺(tái)上累計(jì)消費(fèi)至少 1000 美元(約7285元人民幣),并且賬戶(hù)創(chuàng)建超過(guò) 30 天。o1 API 取代了此前的 o1-preview 模型,并在多個(gè)方面進(jìn)行了增強(qiáng)。

與傳統(tǒng)的 AI 模型不同,o1 等推理模型具備自我事實(shí)核查的能力,可以有效減少常見(jiàn)錯(cuò)誤。不過(guò),這一優(yōu)勢(shì)的代價(jià)是計(jì)算成本較高,且模型推理時(shí)間較長(zhǎng)。據(jù)了解,OpenAI 對(duì) o1 模型的收費(fèi)為每分析 75 萬(wàn)字收取 15 美元,每生成 75 萬(wàn)字收費(fèi) 60 美元,這個(gè)費(fèi)用是當(dāng)前 GPT-4o 模型的六倍。

與之前的 o1-preview 版本相比,o1 API 提供了更高的可定制性。新版本增加了函數(shù)調(diào)用功能,允許模型連接外部數(shù)據(jù)源,同時(shí)新增了開(kāi)發(fā)者消息功能,開(kāi)發(fā)者可指導(dǎo)模型的語(yǔ)氣和風(fēng)格。此外,o1 還引入了圖像分析能力,并提供了一個(gè)名為“reasoning_effort”的 API 參數(shù),允許開(kāi)發(fā)者調(diào)整模型在回答問(wèn)題時(shí)的“思考”時(shí)間,以便在特定場(chǎng)景下優(yōu)化推理過(guò)程。

OpenAI 在博客中提到,最新版本的 o1 模型(o1-2024-12-17)經(jīng)過(guò)后訓(xùn)練,針對(duì)用戶(hù)反饋對(duì)多個(gè)行為進(jìn)行了改進(jìn),尤其是在編程和商業(yè)相關(guān)問(wèn)題的處理上,性能更為精準(zhǔn),并減少了錯(cuò)誤拒絕請(qǐng)求的情況。OpenAI 強(qiáng)調(diào),他們正在逐步擴(kuò)大 o1 API 的訪(fǎng)問(wèn)權(quán)限,并提升速率限制,以覆蓋更多用戶(hù)級(jí)別。

除了 o1 API,OpenAI 還發(fā)布了更新版本的 GPT-4o 和 GPT-4o mini 模型,作為其實(shí)時(shí) API(Realtime API)的一部分。實(shí)時(shí) API 用于構(gòu)建低延遲、高效能的人工智能語(yǔ)音應(yīng)用程序,特別是在實(shí)時(shí)交互中。新發(fā)布的模型(“gpt-4o-realtime-preview-2024-12-17”和“gpt-4o-mini-realtime-preview-2024-12-17”)提升了數(shù)據(jù)效率和可靠性,并降低了使用成本。

目前,實(shí)時(shí) API 仍處于測(cè)試階段,但已經(jīng)增加了多個(gè)新功能,如并發(fā)的帶外響應(yīng),可以在不中斷交互的情況下執(zhí)行后臺(tái)任務(wù)(如內(nèi)容審核)。此外,實(shí)時(shí) API 還支持 WebRTC——一個(gè)廣泛應(yīng)用于瀏覽器、智能手機(jī)和物聯(lián)網(wǎng)設(shè)備的開(kāi)放標(biāo)準(zhǔn),用于構(gòu)建實(shí)時(shí)語(yǔ)音應(yīng)用。OpenAI 表示,WebRTC 集成的目標(biāo)是即使在網(wǎng)絡(luò)質(zhì)量不穩(wěn)定的情況下,也能保證流暢且響應(yīng)迅速的用戶(hù)體驗(yàn)。

在微調(diào)方面,OpenAI 推出了新的偏好微調(diào)功能,使開(kāi)發(fā)者能夠通過(guò)比較不同回答的配對(duì)來(lái)“教導(dǎo)”模型區(qū)分首選答案與非首選答案。這一功能能夠進(jìn)一步提高模型的回答質(zhì)量,確保其生成的內(nèi)容更符合用戶(hù)的需求。此外,OpenAI 還為 Go 和 Java 提供了官方軟件開(kāi)發(fā)工具包(SDK)的早期訪(fǎng)問(wèn)測(cè)試版,進(jìn)一步擴(kuò)展了其開(kāi)發(fā)者生態(tài)系統(tǒng)。

特別提醒:本網(wǎng)信息來(lái)自于互聯(lián)網(wǎng),目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀(guān)點(diǎn)。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實(shí),對(duì)本文以及其中全部或者部分內(nèi)容、文字、圖片等內(nèi)容的真實(shí)性、完整性、及時(shí)性本站不作任何保證或承諾,請(qǐng)自行核實(shí)相關(guān)內(nèi)容。本站不承擔(dān)此類(lèi)作品侵權(quán)行為的直接責(zé)任及連帶責(zé)任。如若本網(wǎng)有任何內(nèi)容侵犯您的權(quán)益,請(qǐng)及時(shí)發(fā)送相關(guān)信息至bireading@163.com,本站將會(huì)在48小時(shí)內(nèi)處理完畢。

OpenAI 推出“推理”模型 o1 API 并更新多項(xiàng)開(kāi)發(fā)者工具

2024-12-18 10:38:34 瀏覽量: 2325 作者: 探索者

12月18日,在“OpenAI 12天”活動(dòng)的第9天,OpenAI 今日宣布其全新“推理”人工智能模型 o1 正式通過(guò) API 向部分開(kāi)發(fā)者開(kāi)放,同時(shí)同步更新了包括 GPT-4o、實(shí)時(shí) API 以及微調(diào) API 等多項(xiàng)開(kāi)發(fā)者工具。

OpenAI 表示,o1 模型的 API 已經(jīng)對(duì)部分開(kāi)發(fā)者開(kāi)放,首批獲得使用權(quán)限的開(kāi)發(fā)者為 OpenAI “第五級(jí)”用戶(hù)。這些開(kāi)發(fā)者需要滿(mǎn)足兩個(gè)條件:在 OpenAI 平臺(tái)上累計(jì)消費(fèi)至少 1000 美元(約7285元人民幣),并且賬戶(hù)創(chuàng)建超過(guò) 30 天。o1 API 取代了此前的 o1-preview 模型,并在多個(gè)方面進(jìn)行了增強(qiáng)。

與傳統(tǒng)的 AI 模型不同,o1 等推理模型具備自我事實(shí)核查的能力,可以有效減少常見(jiàn)錯(cuò)誤。不過(guò),這一優(yōu)勢(shì)的代價(jià)是計(jì)算成本較高,且模型推理時(shí)間較長(zhǎng)。據(jù)了解,OpenAI 對(duì) o1 模型的收費(fèi)為每分析 75 萬(wàn)字收取 15 美元,每生成 75 萬(wàn)字收費(fèi) 60 美元,這個(gè)費(fèi)用是當(dāng)前 GPT-4o 模型的六倍。

與之前的 o1-preview 版本相比,o1 API 提供了更高的可定制性。新版本增加了函數(shù)調(diào)用功能,允許模型連接外部數(shù)據(jù)源,同時(shí)新增了開(kāi)發(fā)者消息功能,開(kāi)發(fā)者可指導(dǎo)模型的語(yǔ)氣和風(fēng)格。此外,o1 還引入了圖像分析能力,并提供了一個(gè)名為“reasoning_effort”的 API 參數(shù),允許開(kāi)發(fā)者調(diào)整模型在回答問(wèn)題時(shí)的“思考”時(shí)間,以便在特定場(chǎng)景下優(yōu)化推理過(guò)程。

OpenAI 在博客中提到,最新版本的 o1 模型(o1-2024-12-17)經(jīng)過(guò)后訓(xùn)練,針對(duì)用戶(hù)反饋對(duì)多個(gè)行為進(jìn)行了改進(jìn),尤其是在編程和商業(yè)相關(guān)問(wèn)題的處理上,性能更為精準(zhǔn),并減少了錯(cuò)誤拒絕請(qǐng)求的情況。OpenAI 強(qiáng)調(diào),他們正在逐步擴(kuò)大 o1 API 的訪(fǎng)問(wèn)權(quán)限,并提升速率限制,以覆蓋更多用戶(hù)級(jí)別。

除了 o1 API,OpenAI 還發(fā)布了更新版本的 GPT-4o 和 GPT-4o mini 模型,作為其實(shí)時(shí) API(Realtime API)的一部分。實(shí)時(shí) API 用于構(gòu)建低延遲、高效能的人工智能語(yǔ)音應(yīng)用程序,特別是在實(shí)時(shí)交互中。新發(fā)布的模型(“gpt-4o-realtime-preview-2024-12-17”和“gpt-4o-mini-realtime-preview-2024-12-17”)提升了數(shù)據(jù)效率和可靠性,并降低了使用成本。

目前,實(shí)時(shí) API 仍處于測(cè)試階段,但已經(jīng)增加了多個(gè)新功能,如并發(fā)的帶外響應(yīng),可以在不中斷交互的情況下執(zhí)行后臺(tái)任務(wù)(如內(nèi)容審核)。此外,實(shí)時(shí) API 還支持 WebRTC——一個(gè)廣泛應(yīng)用于瀏覽器、智能手機(jī)和物聯(lián)網(wǎng)設(shè)備的開(kāi)放標(biāo)準(zhǔn),用于構(gòu)建實(shí)時(shí)語(yǔ)音應(yīng)用。OpenAI 表示,WebRTC 集成的目標(biāo)是即使在網(wǎng)絡(luò)質(zhì)量不穩(wěn)定的情況下,也能保證流暢且響應(yīng)迅速的用戶(hù)體驗(yàn)。

在微調(diào)方面,OpenAI 推出了新的偏好微調(diào)功能,使開(kāi)發(fā)者能夠通過(guò)比較不同回答的配對(duì)來(lái)“教導(dǎo)”模型區(qū)分首選答案與非首選答案。這一功能能夠進(jìn)一步提高模型的回答質(zhì)量,確保其生成的內(nèi)容更符合用戶(hù)的需求。此外,OpenAI 還為 Go 和 Java 提供了官方軟件開(kāi)發(fā)工具包(SDK)的早期訪(fǎng)問(wèn)測(cè)試版,進(jìn)一步擴(kuò)展了其開(kāi)發(fā)者生態(tài)系統(tǒng)。

,

Copyright ©2018 鉍讀網(wǎng) All Rights Reserved.

京ICP備18051707號(hào)

京公網(wǎng)安備 11011302001633號(hào)