3 min read
[AI 小众新闻]

超快速、超便宜!OpenAI发布「GPT-5.4 mini & nano」小型模型,性能接近高端型号


OpenAI推出了GPT-5.4 mini和nano,兼顾高推理能力与高速低成本。mini的运行速度是前一代的两倍。

※この記事はアフィリエイト広告を含みます

[AI小新闻快报] 超快速、超便宜!OpenAI发布「GPT-5.4 mini & nano」

📰 新闻概述

  • OpenAI新发布了GPT-5.4的小型高速版本模型“mini”和“nano”。
  • GPT-5.4 mini在速度上比前代GPT-5 mini提升了两倍以上,同时在编码和推理能力方面也得到了显著增强。
  • GPT-5.4 nano作为系列中最便宜的模型,专注于分类、数据提取及辅助性子任务的执行。

💡 重要亮点

  • 惊人的性能:GPT-5.4 mini在SWE-Bench Pro(编码)和OSWorld-Verified(计算机操作)测试中,达到了接近全尺寸GPT-5.4的高性能。
  • 低成本、低延迟:API定价方面,mini的输入为每百万个token $0.75,输出为每百万个token $4.50,而nano则为输入每百万个token $0.20,输出每百万个token $1.25,价格极为便宜。
  • 多模型架构:建议将大型模型用于计划,mini和nano作为子代理并行执行,形成“复合系统”。

🦈 鲨鱼观察(策展人视角)

mini模型速度提升至前一代的两倍,真是令人惊叹!特别是在性能与延迟的平衡上,SWE-Bench Pro的分数达到了54.4%,与高端模型(57.7%)非常接近。这标志着我们已经从“随便用大模型”的时代,完全转向合理运用不同模型的时代。对于需要快速响应的编码助手和实时图像分析,mini必将成为必不可少的存在!

🚀 未来展望

开发者将不再依赖单一的大型模型,设计上将流行使用多个小型模型作为“子代理”并行操作。随着低成本的nano问世,过去因费用原因而无法自动化的大规模数据分类和提取任务将得到迅速推进。

💬 鲨鱼的观点

又快又便宜,还是聪明,真是太棒了!使用nano就像是用零花钱整理大量数据,轻松又划算!🦈🔥

📚 术语解释

  • SWE-Bench Pro:用于测量AI解决软件工程实际问题能力的基准测试。

  • 子代理:从主AI接收指令,专注执行特定小任务(如代码搜索或文件检查)的辅助AI。

  • 延迟:从发出指令到结果返回之间的延迟时间,延迟越短,用户体验越流畅。

  • 信息来源: GPT‑5.4 Mini and Nano

【免責事項 / Disclaimer / 免责声明】
JP: 本記事はAIによって構成され、運営者が内容の確認・管理を行っています。情報の正確性は保証せず、外部サイトのコンテンツには一切の責任を負いません。
EN: This article was structured by AI and is verified and managed by the operator. Accuracy is not guaranteed, and we assume no responsibility for external content.
ZH: 本文由AI构建,并由运营者进行内容确认与管理。不保证准确性,也不对外部网站的内容承担任何责任。
🦈