時(shí)隔五年之后,OpenAI 剛剛正式發(fā)布兩款開源權(quán)重語言模型——gpt-oss-120b和 gpt-oss-20b,而上一次他們開源語言模型,還要追溯到 2019 年的 GPT-2。
OpenAI 是真 open 了。
而今天 AI 圈也火藥味十足,OpenAI 開源 gpt-oss、Anthropic 推出 Claude Opus 4.1(下文有詳細(xì)報(bào)道)、Google DeepMind 發(fā)布 Genie 3,三大巨頭不約而同在同一天放出王炸,上演了一出神仙打架。
OpenAI CEO Sam Altman(山姆·奧特曼)在社交媒體上的興奮溢于言表:「gpt-oss 發(fā)布了!我們做了一個(gè)開放模型,性能達(dá)到o4-mini水平,并且能在高端筆記本上運(yùn)行。為團(tuán)隊(duì)感到超級(jí)自豪,這是技術(shù)上的重大勝利。」

模型亮點(diǎn)概括如下:
- gpt-oss-120b:大型開放模型,適用于生產(chǎn)、通用、高推理需求的用例,可運(yùn)行于單個(gè) H100 GPU(1170 億參數(shù),激活參數(shù)為 51 億),設(shè)計(jì)用于數(shù)據(jù)中心以及高端臺(tái)式機(jī)和筆記本電腦上運(yùn)行
- gpt-oss-20b:中型開放模型,用于更低延遲、本地或?qū)I(yè)化使用場(chǎng)景(21B 參數(shù),3.6B 激活參數(shù)),可以在大多數(shù)臺(tái)式機(jī)和筆記本電腦上運(yùn)行。
- Apache 2.0 許可證: 可自由構(gòu)建,無需遵守 copyleft 限制或擔(dān)心專利風(fēng)險(xiǎn)——非常適合實(shí)驗(yàn)、定制和商業(yè)部署。
- 可配置的推理強(qiáng)度: 根據(jù)具體使用場(chǎng)景和延遲需求,輕松調(diào)整推理強(qiáng)度(低、中、高)。完整的思維鏈: 全面訪問模型的推理過程,便于調(diào)試并增強(qiáng)對(duì)輸出結(jié)果的信任。此功能不適合展示給最終用戶。
- 可微調(diào): 通過參數(shù)微調(diào),完全定制模型以滿足用戶的具體使用需求。
- 智能 Agent 能力: 利用模型的原生功能進(jìn)行函數(shù)調(diào)用、 網(wǎng)頁瀏覽 、Python 代碼執(zhí)行和結(jié)構(gòu)化輸出。
- 原生 MXFP4 量化: 模型使用 MoE 層的原生 MXFP4 精度進(jìn)行訓(xùn)練,使得 gpt-oss-120b 能夠在單個(gè) H100 GPU 上運(yùn)行,gpt-oss-20b 模型則能在 16GB 內(nèi)存內(nèi)運(yùn)行。
OpenAI 終于開源了,但這次真不太一樣
從技術(shù)規(guī)格來看,OpenAI 這次確實(shí)是「動(dòng)真格」了,并沒有拿出縮水版的開源模型敷衍了事,而是推出了性能直逼自家閉源旗艦的誠(chéng)意之作。
據(jù) OpenAI 官方介紹,gpt-oss-120b 總參數(shù)量為 1170 億,激活參數(shù)為 51 億,能夠在單個(gè) H100 GPU 上運(yùn)行,僅需 80 GB 內(nèi)存,專為生產(chǎn)環(huán)境、通用應(yīng)用和高推理需求的用例設(shè)計(jì),既可以部署在數(shù)據(jù)中心,也能在高端臺(tái)式機(jī)和筆記本電腦上運(yùn)行。
相比之下,gpt-oss-20b 總參數(shù)量為 210 億,激活參數(shù)為 36 億,專門針對(duì)更低延遲、本地化或?qū)I(yè)化使用場(chǎng)景優(yōu)化,僅需 16GB 內(nèi)存就能運(yùn)行,這意味著大多數(shù)現(xiàn)代臺(tái)式機(jī)和筆記本電腦都能駕馭。
根據(jù) OpenAI 公布的基準(zhǔn)測(cè)試結(jié)果,gpt-oss-120b 在競(jìng)賽編程的 Codeforces 測(cè)試中表現(xiàn)優(yōu)于 o3-mini,與o4-mini持平;在通用問題解決能力的 MMLU 和 HLE 測(cè)試中同樣超越 o3-mini,接近 o4-mini 水平。