欢迎光临,我们是一家专注中小型企业营销推广服务的公司!

咨询热线:400 9868 577
淮南兰乔电子商务有限公司
新闻中心News
淮南兰乔电子商务有限公司

LFM2.5-1.2B-Thinking 发布:仅占用手机 900 MB 内存

作者:心靈之曲 | 点击: | 来源:心靈之曲
2101
2026
LiquidAI正式发布全新推理模型LFM2.5-1.2B-Thinking,该模型仅需约900MB手机内存,即可实现同尺寸模型中首屈一指的推理速度与最优的推理精度。据悉,LFM2.5-1.2B-Thinking是LFM2.5系列的最新迭代版本,参数量为12亿,专为复杂推理任务深度优化。其核心特性在于“先思考、后作答”——在输出最终答案前,主动构建结构化思考路径,从而更系统、更可靠地完成问题求解。该能力充分融合了LFM架构固有的高速推理优势,进一步提升答案质量与逻辑严谨性。相较于...

liquid ai 正式发布全新推理模型 lfm2.5-1.2b-thinking,该模型仅需约 900 mb 手机内存,即可实现同尺寸模型中首屈一指的

推理速度与最优的推理精度。

据悉,LFM2.5-1.2B-Thinking 是 LFM2.5 系列的最新迭代版本,参数量为 12 亿,专为复杂推理任务深度优化。其核心特性在于“先思考、后作答”——在输出最终答案前,主动构建结构化思考路径,从而更系统、更可靠地完成问题求解。该能力充分融合了 LFM 架构固有的高速推理优势,进一步提升答案质量与逻辑严谨性。

相较于前代模型 LFM2.5-1.2B-Instruct,LFM2.5-1.2B-Thinking 在三项关键能力上实现显著跃升:数学推理(MATH-500 基准从 63 分提升至 88 分)、指令理解与执行(Multi-IF 基准从 61 分提升至 69 分)、以及工具调用能力(BFCLv3 基准从 49 分提升至 57 分)。

官方指出,尽管参数规模相较 Qwen3-1.7B 缩减近 40%,LFM2.5-1.2B-Thinking 在主流推理评测中不仅全面比肩,更在多项指标上实现反超。尤为突出的是,它兼顾卓越输出质量与极高的测试时计算效率:相比启用“思考模式”的 Qwen3-1.7B,本模型在达成更高综合性能的同时,所需生成的输出 token 数量更少。

在实际推理阶段,LFM2.5-1.2B-Thinking 不仅大幅领先于 Qwen3-1.7B,甚至在速度与内存占用方面也优于 Granite-4.0-H-1B 等混合架构模型。

此外,该模型在高自主性、强逻辑依赖型任务(如工具协同、复杂数学推演、代码生成)及长上下文推理场景中均展现出强劲实力与稳定表现。

相关推荐
我要咨询做网站
成功案例
建站流程
  • 网站需
    求分析
  • 网站策
    划方案
  • 页面风
    格设计
  • 程序设
    计研发
  • 资料录
    入优化
  • 确认交
    付使用
  • 后续跟
    踪服务
  • 400 9868 577
    info#ilanqiao.cn
Hi,Are you ready?
准备好开始了吗?
那就与我们取得联系吧

咨询送礼现在提交,将获得兰乔电子商务策划专家免费为您制作
价值5880元《全网营销方案+优化视频教程》一份!
下单送礼感恩七周年,新老用户下单即送创业型空间+域名等大礼
24小时免费咨询热线400 9868 577
合作意向表
您需要的服务
您最关注的地方
预算

直接咨询