AI新闻资讯 2026-01-21 15:25:06
近日,Liquid AI 正式推出了其 Liquid 基础模型系列的新成员——LFM2.5-1.2B-Thinking。这款拥有12亿参数的推理模型在端侧设备部署上取得了显著突破。令人印象深刻的是,该模型在现代手机上的运行占用仅约900MB,这意味着两年前还需要数据中心支撑的推理能力,现在已能完全离线运行在个人移动设备上。
与侧重于日常对话的通用模型不同,LFM2.5-1.2B-Thinking专为复杂的逻辑推理、数学运算及工具调用而设计。它在生成最终答案前会先产生内部的“思考痕迹”(thinking traces),这类似于人类的解题过程,能够有效规划步骤并验证中间结果,极大地提升了处理多步骤指令的准确性。
在实际性能表现上,该模型展现了极高的效率。它在 AMD CPU 上的解码速度可达每秒239个字符,而在移动 NPU 上的运行速度也达到了每秒82个字符。通过引入多阶段强化学习(RLVR)等先进训练技术,研发团队成功将推理模型中常见的“循环死机”率从15.74% 降低至0.36%,确保了端侧用户体验的流畅与稳定。
Anthropic 推出自然语言自编码器,将 Claude 内部活动直接转化为人类可读的文本解释
ChatGPT 5.5 Pro一小时搞定博士级数学难题,AI原创能力已进化到这种地步?
马斯克诉OpenAI案庭审现场,一份 2017 年的总裁日记揭开了哪些秘密?
调查显示玩家对 AI 干预游戏画面反感,保留原始风格成主流选择
ChatGPT 5.5 Pro:一小时破解博士级数学难题,AI 数学能力再创高峰
梁文锋豪掷 200 亿!DeepSeek启动 500 亿创纪录融资,V4. 1 定档 6 月
DeepSeek大范围开放识图模式:多模态理解功能正式开启内测
软银缩减 OpenAI 持股质押贷款规模,资本市场对未上市 AI 资产趋于审慎