OpenAI面向開發者推出GPT-4 Turbo模型 新增視覺理解能力
近日,OpenAI對外宣布推出了具有視覺能力的最新GPT-4 Turbo模型,命名為GPT-4 Turbo with Vision,并通過OpenAI API向開發人員普遍提供。這一新模型延續了GPT-4 Turbo系列128,000個token的窗口大小,并在知識庫截止至2023年12月的基礎上,新增了視覺理解能力。
據了解,GPT-4 Turbo with Vision的最大革新之處在于其能夠同時處理文本和圖像信息,將兩者合二為一,極大地簡化了開發流程,并拓展了應用前景。過去,開發者需要調用不同的模型來處理這兩種類型的信息,而現在他們可以通過一個模型完成這一任務。
OpenAI還分享了一些開發者正在使用GPT-4 Turbo with Vision的有趣案例。例如,AI軟件工程助手Devin利用該模型輔助編程;健康健身應用程序Healthify利用圖像識別功能掃描用戶飲食照片,并提供營養分析;創意平臺Make Real則利用該模型將用戶的草圖轉化為可運行的網站。
目前,盡管GPT-4 Turbo with Vision尚未應用于ChatGPT或開放給大眾使用,但OpenAI暗示該功能即將登陸ChatGPT,為用戶提供更加豐富多樣的交互體驗。據鉍讀了解,GPT-4 Turbo with Vision的推出標志著OpenAI在人工智能領域的持續創新和進步,為開發者和用戶帶來了更加強大、智能的AI技術。