來源: 發(fā)布時間:2024-3-15 17:32:44
2023年世界十大科技進展新聞
OpenAI正式發(fā)布GPT-4

  2023年3月15日,OpenAI發(fā)布了多模態(tài)預訓練大模型GPT-4,這是其大型語言模型的最新版本,也是OpenAI在擴大深度學習方面的最新里程碑。盡管在許多現(xiàn)實世界的場景中其能力不如人類,但它可以在各種專業(yè)和學術基準上表現(xiàn)出近似人類水平的性能。

  在簡單閑聊時,也許不太好發(fā)現(xiàn)GPT-3.5和GPT-4之間的區(qū)別。但是,當任務的復雜性達到足夠的閾值時,它們的區(qū)別就顯現(xiàn)出來了。具體來說,GPT-4比GPT-3.5更可靠、更有創(chuàng)造力,能夠處理更細微的指令。

  相比上一代的GPT-3,GPT-4可以更準確地解決難題,具有更廣泛的常識和解決問題的能力,如更具創(chuàng)造性和協(xié)作性,能夠處理超過2.5萬個單詞的文本,允許長文內(nèi)容創(chuàng)建、擴展對話以及文檔搜索和分析等用例。此外,GPT-4在各類專業(yè)測試上也表現(xiàn)優(yōu)良。在SAT等絕大多數(shù)專業(yè)測試以及相關學術基準評測中,GPT-4的分數(shù)都高于此前版本。

  OpenAI花了6個月時間使GPT-4更安全、更具一致性。在內(nèi)部評估中,與GPT-3.5相比,GPT-4對不允許內(nèi)容做出回應的可能性降低82%,給出事實性回應的可能性高40%。GPT-4引入了更多人類反饋數(shù)據(jù)進行訓練,不斷吸取現(xiàn)實世界使用的經(jīng)驗教訓進行改進。

  對于市場普遍擔心的安全倫理問題,GPT-4也做了一定升級。OpenAI表示,新模型將產(chǎn)生更少的錯誤答案,更少地偏離軌道,更少地談論禁忌話題,甚至在許多標準化測試中比人類表現(xiàn)得更好。

  不過,GPT-4仍然存在與早期GPT模型類似的限制。它仍然不是完全可靠的,如會對事實產(chǎn)生“幻覺”,并出現(xiàn)推理錯誤。OpenAI提醒,在使用語言模型的輸出時,特別是在高風險的情況下,應該非常小心謹慎。但相較于以前的模型,GPT-4大大減少了網(wǎng)絡錯覺。

  GPT-4的發(fā)布是人工智能應用的一個里程碑事件,人工智能可實現(xiàn)的功能越來越豐富,未來或將成為人類得心應手的工具!

 

 

《科學新聞》 (科學新聞2024年2月刊 封面)
發(fā)E-mail給:      
| 打印 | 評論 |