谷歌最新轻量级模型在保持极速推理的同时,大幅提升了多模态与逻辑能力,超越多款重型模型。然而其输出价格上涨近三倍,反映出AI厂商平衡算力成本的新策略。
性能越级与定制化思考能力
在AI模型竞逐效率与性能双重极限的当下,Google DeepMind正式推出了Gemini 3.1 Flash-Lite预览版。作为第三代产品线中主打极致性价比的生力军,该模型在延续每秒超360个token吞吐量与平均5.1秒超低延迟的同时,实现了底层逻辑能力的越级跨步。
根据第三方评测机构Artificial Analysis的数据,新一代模型得分跃升12分至34分,并在Arena.ai盲测榜单中斩获1432的Elo高分。在极为考验复杂推理的多模态测试MMMU-Pro和科学基准GPQA Diamond中,其分别取得76.8%与86.9%的优异成绩,在部分核心指标上甚至反超了Claude Opus 4.6等消耗庞大算力的重型旗舰模型。此外,新版本开放了开发者自定义思考深度的权限,使其能够无缝切换于基础文本翻译与精密系统UI构建等跨度极大的任务之间。

告别低价竞争的成本重构
尽管技术指标令人瞩目,但新模型的定价策略却引发了业界的广泛探讨。Gemini 3.1 Flash-Lite的每百万输入token定价上浮至0.25美元,而输出价格则从上一代的0.40美元暴涨至1.50美元,涨幅逼近300%。
这一显著的价格反弹信号表明,轻量化AI模型市场正在告别野蛮生长的低价内卷时代。随着高级逻辑推理能力向端侧和轻量级产品下放,厂商面临着算力调度与研发投入的双重考验。当前该模型已在Google AI Studio及Vertex AI平台开启测试,这种以一定成本换取确定性逻辑回报的商业模式,或将重塑企业级AI应用落地的预算结构。
相关推荐

2025 AI 技术峰会

AI 实战课程
热门工具
AI 助手
智能对话,提升效率
智能图像处理
一键美化,智能修图
AI 翻译
多语言实时翻译






评论 (0)
暂无评论,快来发表第一条评论吧!