近日,OpenAI 推出了其最新的开源模型 gpt-oss-20b,这是一款拥有200亿参数的语言模型。该模型在多个常见基准测试中与 OpenAI 的 o3-mini 模型取得了相似的表现,显示出其强大的推理能力。值得注意的是,高通公司在这一发布中宣布,gpt-oss-20b 是首个可以在搭载骁龙平台的终端设备上运行的开源推理模型。

图源备注:图片由AI生成,图片授权服务商Midjourney
此前,OpenAI 的复杂模型主要依赖于云端进行部署,用户需要依赖网络连接来获取服务。而现在,通过与高通的合作,gpt-oss-20b 模型可以直接在骁龙旗舰处理器的终端上进行本地推理。这意味着,用户在使用 AI 助手时将不再受限于网络速度,能够享受到更快的响应时间和更好的隐私保护。
高通表示,通过提前获取 gpt-oss-20b 模型,并与 Qualcomm AI Stack 进行集成测试,验证了该模型在终端设备上的卓越性能。此举标志着 AI 技术的一个重要转折点,预示着复杂的助手式推理将不再仅限于云端,而是能够实现本地处理。这一进展不仅提升了用户体验,也为开发者和合作伙伴提供了新的可能性。
对于开发者来说,gpt-oss-20b 将通过 Hugging Face 和 Ollama 等主流平台提供下载,便于在搭载骁龙平台的终端上进行应用。用户可以轻松地在 Ollama 平台上体验到该模型的 Turbo 模式,探索更多功能,而无需复杂的配置。此外,高通还计划在 Qualcomm AI Hub 上发布更多的部署细节,以帮助开发者更好地利用这一新模型。
随着 gpt-oss-20b 的发布,未来的 AI 生态系统将变得更加成熟,合作伙伴和开发者能够借助骁龙处理器,实时利用 OpenAI 的创新成果,推动更多智能应用的发展。
划重点:
🌟 OpenAI 推出的新开源模型 gpt-oss-20b 可以在骁龙终端本地运行。
⚡️ 该模型提供更快的响应时间和更好的隐私保护,减少对网络的依赖。
🚀 开发者可通过主流平台下载使用 gpt-oss-20b,并探索其更多功能。