OpenAI发布开源大模型GPT-OSS
8月6日,OpenAI首席执行官山姆·奥尔特曼宣布,公司将在未来几天推出多项更新,其中一款预热已久的开源模型GPT-OSS已在周二正式发布。此次共推出两款开放权重AI推理模型,分别是参数量1170亿的gpt-oss-120b和210亿的gpt-oss-20b。前者可在单个英伟达专业数据中心GPU上运行,后者则适配配备16GB内存的消费级笔记本电脑。
这是自2019年GPT-2发布以来,OpenAI时隔六年再度推出开源模型。两款模型均采用宽松的Apache 2.0许可证,企业可直接用于商业用途无需额外授权。性能方面,GPT-OSS处于开源模型第一梯队,但整体仍弱于自家闭源模型GPT-o3和o4-mini。在编程测试Codeforces中,gpt-oss-120b和gpt-oss-20b分别获得2622和2516分,虽优于部分头部开源模型,但逊于闭源模型。在“人类最后的考试”测试中,两款模型得分分别为19%和17.3%,同样不及o3。
两款模型均采用混合专家(MoE)技术,在处理问题时仅激活部分参数。以gpt-oss-120b为例,每处理一个token仅激活51亿个参数。不过相较闭源模型,这两款开源模型更容易出现“幻觉”。OpenAI解释称,小型模型掌握的世界知识较少,因此更易产生错误信息。在PersonQA基准测试中,gpt-oss-120b和gpt-oss-20b分别对49%和53%的问题产生幻觉,远高于o4-mini的36%。奥尔特曼还透露,本周晚些时候将有另一项重大更新,市场普遍猜测这可能是GPT-5的亮相。