OpenAI's new open weight (Apache 2) models are good
9 months ago
- #AI
- #Machine Learning
- #OpenAI
- OpenAI在Apache 2.0许可证下发布了新的开源权重模型:gpt-oss-120b和gpt-oss-20b
- gpt-oss-120b在推理基准测试中接近专有模型o4-mini的水平,可在80GB GPU上运行
- gpt-oss-20b性能匹配o3-mini,适用于内存16GB的边缘设备
- 两个模型均采用混合专家架构,每token分别激活51亿和36亿参数
- 模型在博士级科学问题(GPQA Diamond基准)上表现优异
- gpt-oss-20b在32GB内存的Mac上高效运行,推理时占用约12GB内存
- 模型支持可调节的推理级别(低/中/高),影响速度与准确性
- 推出新型提示模板格式OpenAI Harmony,包含系统/开发者/用户/助手/工具五种角色
- 模型基于数万亿token训练,侧重STEM/编程/通识领域,内置安全过滤器
- 训练成本估算:gpt-oss-120b约420-2310万美元,gpt-oss-20b约42-230万美元
- 支持工具调用功能,包括网页浏览/Python执行/开发者自定义函数
- 性能媲美近期中国开源模型(Qwen/Moonshot/Z.ai),部分指标可能更优