AI新闻资讯 2026-01-21 15:25:06
近日,Liquid AI 正式推出了其 Liquid 基础模型系列的新成员——LFM2.5-1.2B-Thinking。这款拥有12亿参数的推理模型在端侧设备部署上取得了显著突破。令人印象深刻的是,该模型在现代手机上的运行占用仅约900MB,这意味着两年前还需要数据中心支撑的推理能力,现在已能完全离线运行在个人移动设备上。
与侧重于日常对话的通用模型不同,LFM2.5-1.2B-Thinking专为复杂的逻辑推理、数学运算及工具调用而设计。它在生成最终答案前会先产生内部的“思考痕迹”(thinking traces),这类似于人类的解题过程,能够有效规划步骤并验证中间结果,极大地提升了处理多步骤指令的准确性。
在实际性能表现上,该模型展现了极高的效率。它在 AMD CPU 上的解码速度可达每秒239个字符,而在移动 NPU 上的运行速度也达到了每秒82个字符。通过引入多阶段强化学习(RLVR)等先进训练技术,研发团队成功将推理模型中常见的“循环死机”率从15.74% 降低至0.36%,确保了端侧用户体验的流畅与稳定。
智己汽车发布会定档!超级智能体即将亮相,揭示未来出行新趋势
NAS 玩家狂喜!绿联联手 MiniMax 搞大事:大模型一键“入柜”,私有云秒变超强 AI 助手
百度搜索 Skill 登顶 ClawHub:下载量突破 3.6 万次,位居全球第一
美团王兴:物理世界数字化是AI底座,已上线AI搜索产品“问小团”
技术优化仍需打磨:Meta 宣布 Llama4发布计划推迟至5月
美团 CEO 王兴:AI Agent 对我的冲击比 ChatGPT 冲击更大
出货量破 800 万颗!董明珠的“芯”事成了:格力自研芯片杀入AI“主动服务”时代
入门即享半固态电池!上汽 MG 4X 惊艳亮相:发光 LOGO 加持,智驾博弈大模型也来了