前OpenAI CTO新作Tinker全面开放:接入Kimi与千问VL | AINEWS
type
status
date
slug
summary
tags
category
icon
password
网址

在人工智能的浩瀚星空中,每一次巨头的转身都可能引发新的引力波。大家是否还记得那个曾经主导ChatGPT开发、被称为“AI女王”的前OpenAI CTO——Mira Murati?在2024年离职引发科技圈震动后,她并没有沉寂太久。仅仅数月,她便带着一支由OpenAI旧将组成的“梦之队”,创立了Thinking Machines Lab,并以惊人的速度推出了首款重磅产品——Tinker。
近期,这款备受瞩目的“思考机器”正式宣布全面开放,不再需要漫长的等待名单。更令人兴奋的是,Tinker不仅在基础设施上进行了革新,还强势接入了两款国产顶尖模型:Kimi K2 Thinking和Qwen-VL(千问VL)。这一动作不仅标志着Murati在AI前沿战场的强势回归,也预示着大模型微调(Fine-tuning)领域即将迎来一场彻底的变革。作为关注AGI和LLM发展的AI门户,AINEWS将为您深入解读这一里程碑事件。
瞄准痛点:填补模型训练与应用间的“断层”
离开OpenAI之后,Murati和她的团队并没有急于卷入“造更强模型”的军备竞赛中。相反,Thinking Machines Lab敏锐地捕捉到了行业中一个被忽视但至关重要的“中间层”——模型训练与实际使用之间的巨大鸿沟。
在当前的人工智能叙事中,微调大模型听起来似乎很简单:“准备数据、调参、训练”。然而,对于绝大多数非巨头企业的开发者而言,现实却是残酷的:
- 基础设施复杂:搭建高效的GPU集群调度系统本身就是一项浩大的工程,且GPU资源极其昂贵。
- 反馈滞后:传统的训练流程往往是“黑盒”状态,必须等训练完全结束才能验证效果,时间成本极高。
- 接口割裂:训练环境与推理环境不统一,导致模型上线困难,迁移成本高昂。
正如Thinking Machines联合创始人Lilian Weng所言,提供高质量的研究工具,是提升整个社区研究效率最有效的方式。Tinker的诞生,正是为了将模型训练这件高度封闭、精英化的事情,改造成面向大众开发者的、可“边训练、边验证”的便捷工具。
Tinker的核心优势:让微调像写Python一样简单
Tinker究竟有何魔力,能让融资估值飙升至百亿美元级别?简单来说,Tinker是一个将复杂的分布式训练抽象化的AI模型微调平台。
它的核心设计理念是“解放开发者”。在Tinker上,用户无需关心底层的分布式训练、GPU资源分配或故障恢复等繁重工作。你只需要在本地CPU机器上编写一个简单的Python训练循环,定义好数据和损失函数,Tinker平台就会负责将这些计算任务高效地分发到云端的大量GPU上运行。
更值得一提的是,Tinker并非一个封闭的“黑盒”。它在屏蔽底层复杂性的同时,完整保留了用户对算法细节的控制权。这种设计使得从小型模型切换到大型模型变得异常简单——只需更改代码中的一个字符串即可。这种灵活性对于追求AI变现和快速迭代的初创团队来说,无疑是巨大的福音。
重磅更新:接入Kimi K2与千问VL,拥抱多模态
此次Tinker的全面开放,伴随着三项激动人心的功能更新,其中最引人注目的便是对国产大模型的强力支持。
1. 接入Kimi K2 Thinking:
Tinker新增了对Kimi K2 Thinking模型的支持。众所周知,Kimi K2是专为长逻辑推理和复杂工具调用设计的“怪物级”模型,也是Tinker目前支持的参数量最大的模型之一。这意味着开发者现在可以在Tinker平台上,针对特定的长文本或推理任务,对Kimi K2进行深度微调,定制出更符合自身业务需求的大模型应用。
2. 引入Qwen3-VL系列:
视觉语言模型(VLM)是当前AI资讯中的热点。Tinker新增了两款Qwen3-VL系列模型(30B和235B版本)。借助这两款模型,用户可以处理图片、屏幕截图和图表,轻松玩转多模态AI。
3. 兼容OpenAI API:
为了降低迁移门槛,Tinker推出了与OpenAI API完全兼容的脚手架功能。这意味着,即便是正在训练中的模型,也可以通过标准的API接口进行采样和调用。对于习惯了ChatGPT开发生态的用户来说,这实现了真正的“即插即用”。
实战案例:一个样本让千问VLM识别新物种
Tinker不仅仅是工具,更是一种新的AI方法论。为了展示其强大的微调能力,官方发布了一个令人印象深刻的实例:利用Tinker微调Qwen3-VL模型进行图像分类。
在实验中,团队发现,即便每个类别仅提供一个样本(One-shot),微调后的Qwen3-VL模型也能展现出惊人的准确率,并成功识别出新物种。在对比测试中,这款VLM模型甚至战胜了专门用于计算机视觉任务的DINOv2骨干网络。
这背后的逻辑在于,VLM模型天生具备丰富的语言知识和通识理解能力。通过Tinker的高效微调,模型能够迅速将已有的知识迁移到新的视觉任务中。这为提示词(Prompt)工程无法解决的复杂视觉识别场景,提供了一条全新的解决路径。
结语:AI民主化的新篇章
Tinker的出现,打破了巨头对顶级模型微调能力的垄断。它将原本需要海量计算资源和顶尖工程团队才能完成的任务,简化为普通开发者也能触手可及的服务。
无论是对于想要探索AI变现的独立开发者,还是希望在垂直领域深耕的企业,Tinker都提供了一个强大的武器。随着Mira Murati和她的Thinking Machines Lab继续发力,我们有理由相信,一个更加开放、普惠、可定制的AI时代正在加速到来。
想要了解更多关于人工智能、大模型及AI新闻的最新动态,请持续关注 AINEWS,我们将为您带来全球最前沿的AI日报与深度解析。
Loading...
.png?table=collection&id=1e16e373-c263-81c6-a9df-000bd9c77bef&t=1e16e373-c263-81c6-a9df-000bd9c77bef)