林俊旸离职与Qwen 3.5:小模型如何撼动万亿美金AI假设 | AI资讯

type
status
date
slug
summary
tags
category
icon
password
网址
notion image

引言:一条朋友圈引发的AI范式转移

当通义千问(Qwen)团队的核心负责人林俊旸在朋友圈写下“按照原来安排继续干,没问题的”时,AI圈正处于一场巨大的认知震荡中。这不仅是因为一位技术大牛的离职,更是因为与他离职消息同步传出的,是 Qwen 3.5 Small 系列模型的全面刷屏。
在过去三年里,全球 AI 行业奉 Scaling Law 为圭臬,认为模型参数越大,智能水平越高。OpenAI 的 Sam Altman 甚至提出万亿美金的算力建设计划来喂养这些“巨兽”。然而,Qwen 3.5 Small 的出现,用 9B 的参数量击败了 120B 的模型,直接挑战了这一底层假设。这标志着 AI资讯 的关注焦点正从“暴力美学”转向“精益工程”。想要获取更多前沿 AI新闻,可访问 AI门户

9B 击败 120B:小模型的“以小博大”并非偶然

Qwen 3.5 Small 系列中最受瞩目的 9B 模型,在多项核心基准测试中,系统性地超越了参数量是其 13 倍的开源模型。这并非孤例,随着 LLM 技术的演进,行业内正出现一种新的共识:规模不再是衡量智能的唯一尺度。
  1. 推理能力的质变:Qwen 3.5 在数学、科学和视觉推理任务上表现出的稳定性,证明了小参数模型也能具备极高的逻辑深度。
  1. 学术界的背书:Nature 报道的微型递归模型(TRM)以及 Google Research 的相关论文均指出,在特定任务上,小模型的效率和表现优于庞大的模型。
  1. 收益递减效应:研究表明,模型规模与说服力、意图提取能力之间并非线性增长,当规模达到一定程度后,增加参数带来的收益会急剧递减。
这意味着,未来的 人工智能 竞争将不再仅仅是算力的军备竞赛,而是关于如何更高效地利用每一比特的参数。

核心技术突破:为什么现在的小模型更强了?

今天的小模型能够逆袭,靠的不是削减功能的“平替”,而是技术方法论的彻底革新。
  • 从“海量数据”到“精炼数据”:以往大模型是“饥不择食”地吞噬互联网数据,而现在如微软 Phi-4 和 Qwen 系列则采用高质量合成数据和精选数据集。正如 Prompt 优化能提升输出质量,数据端的精耕细作让模型“吃得精、学得好”。
  • 原生多模态架构:Qwen 3.5 抛弃了传统的适配器拼接模式,将视觉与文本 token 在同一潜空间训练。这种底层融合让小模型在处理复杂图像理解时,不需要额外的计算开销。
  • 端侧量化技术的进化:通过 4-bit 量化等技术,模型不仅体积缩小,更重要的是降低了对内存带宽的需求。这使得 AI 可以在手机、笔记本等端侧设备上流畅运行,无需依赖云端。

商业逻辑的碰撞:云厂商的尴尬与端侧AI的崛起

林俊旸的离开,揭示了技术理想与商业现实之间的结构性矛盾。Qwen 3.5 Small 越成功,对于以云服务为核心的厂商(如阿里云、腾讯云、百度云)来说,叙事逻辑就越尴尬。
  • 云端的逻辑:大模型需要海量算力,客户必须购买云服务,这是云厂商的商业闭环。
  • 端侧的逻辑:小模型在本地运行,低延迟、高隐私、低成本。这意味着客户可以脱离云端,直接削弱了云厂商的收入基础。
在全球范围内,只有像苹果这样拥有“芯片+设备+系统+模型”全栈能力的厂商,才有动力全力推动端侧 AI。而对于国内缺乏主流硬件生态的云厂商来说,小模型更像是一个“引流工具”,而非核心盈利产品。这种动力缺失,或许正是顶尖人才在技术路线成熟后选择离开的深层原因。

结论:Scaling Law 的新地图与 AI变现新机遇

Scaling Law 并没有消失,但它正在进化。未来的 AI 行业不再迷信“越大越好”,而是追求“在对的地方,用对的大小”。从万亿参数的云端巨兽到装进兜里的 3B 代理,AI 的形态正在变得多元化。
对于开发者和创业者来说,这一转变意味着 AI变现 的路径变宽了。端侧 AI 的爆发将催生大量垂直领域的应用,而不再仅仅局限于昂贵的 API 调用。林俊旸虽然离开了,但他留下的 Qwen 3.5 Small 已经证明:技术路线已经铺好,真正的变革正在实验室之外的万千终端上发生。
持续关注 AGIopenaichatGPTclaude 等最新动态,掌握一手 AI日报,请锁定 AI资讯门户
Loading...

没有找到文章