AI利剑出鞘:o3 API无工具揪出Linux内核零日漏洞,安全新纪元!
type
status
date
slug
summary
tags
category
icon
password
网址
人工智能(AI)的发展正以前所未有的速度渗透到各个领域,如今,它在网络安全这一核心技术阵地也取得了惊人突破。近日,一则消息震惊了科技界:OpenAI的o3模型成功发现了一个Linux内核级别的远程零日漏洞(CVE-2025-37899),这是历史上首次公开讨论由大模型独立发现的此类高危漏洞。更令人瞩目的是,这一发现完全依赖o3 API本身,无需任何传统安全工具或复杂的脚手架。本文将深入解读这一里程碑事件,探讨大模型API在代码审计和漏洞挖掘领域的革命性潜力,以及我们如何能通过如
https://api.aigc.bar
这样的平台,利用强大的大模型API服务(包括国内中转API和低价API服务)来提升安全防护能力。o3的惊人洞察力:代码海洋中的“火眼金睛”
这一历史性的发现由独立研究员Sean Heelan完成。他利用OpenAI的o3模型,对Linux内核的KSMBD(内核态SMB3协议实现)代码进行了深入分析。最初,Heelan只是想测试o3在漏洞发现方面的能力,没想到在处理约12000行SMB命令处理程序代码的过程中,o3不仅成功识别了他先前手动发现的一个漏洞,更进一步揪出了一个全新的、此前未知的释放后使用(use-after-free)漏洞。
这个新发现的漏洞位于SMB“注销”命令处理程序中。根据o3的分析,当一个ksmbd工作线程仍在使用会话用户数据(
sess->user
)时,另一个处理同一会话SMB2 LOGOFF的线程可能会释放该数据结构。由于缺乏适当的同步机制保护该指针,导致第一个线程解引用已释放的内存,从而引发内核内存损坏,甚至可能导致任意代码执行。整个过程,o3展现了惊人的“代码阅读理解”能力,仿佛一位经验丰富的安全专家,在浩瀚的代码中精准定位了细微的缺陷。精心设计的实验:大模型API的漏洞挖掘能力测试
Heelan的实验设计颇具巧思。他首先以一个已知的、自己手动发现的漏洞(CVE-2025-37778,一个Kerberos认证路径中的释放后使用漏洞)作为基准,来评估大模型的能力。这个基准漏洞的选择标准是:属于Linux内核远程攻击面,具有一定复杂性(需要理解会话状态、多条执行路径、跨函数对象生命周期),但又能在有限时间内被人类专家理解(涉及约3300行代码)。
在实验中,Heelan向o3提供了包括“会话设置”命令处理程序及其调用的多层函数在内的相关代码,并明确指示模型寻找use-after-free漏洞,同时提供了KSMBD架构说明以辅助理解,并强调避免误报。每个实验都运行了100次以统计成功率。
结果显示,o3在100次运行中成功找到了基准漏洞8次。作为对比,Anthropic的Claude 3.7模型在相同条件下找到了3次,而Claude 3.5则未能成功。这不仅展示了o3在特定任务上的领先性,也突显了不同大模型API在处理复杂代码分析任务时的能力差异。值得一提的是,o3生成的漏洞报告结构清晰、重点突出,非常接近人类安全专家的书写风格,这对于后续的人工验证和修复工作大有裨益。这些实验充分证明了,通过精心设计的提示和大模型API直连,AI确实能够胜任复杂的代码审计工作。
不止于发现:AI在漏洞修复中的深远潜力
o3的能力并不仅仅局限于发现漏洞。在对先前Heelan手动发现的Kerberos认证漏洞进行分析时,o3指出了Heelan最初提出的修复方案(简单将指针置空)存在不足。o3认为,由于SMB协议允许不同连接“绑定”到同一会话,在指针释放和置空之间的短暂窗口期,其他线程仍可能访问该指针。这一深刻洞察让Heelan承认,如果当初使用o3来辅助查找和修复原始漏洞,“理论上”会比自己做得更好。
尽管目前AI生成的报告中仍存在一定的误报率(Heelan提到约1:50的信噪比),需要人工仔细甄别,但其展现出的深度分析和潜在的修复建议能力,预示着AI将在未来的漏洞管理生命周期中扮演更重要的角色。
大模型API:赋能下一代网络安全的关键
o3的成功案例,为我们揭示了大模型API(如o3 API自身,以及业界领先的GPT API, Claude API, Grok API等)在网络安全领域的巨大应用前景。这些强大的API能够:
- 提升代码审计效率:面对日益庞大和复杂的代码库,AI可以作为安全研究员的得力助手,快速扫描和分析代码,初步筛选潜在风险点。
- 发现未知威胁:AI独特的“思考”方式可能发现人类专家容易忽略的复杂漏洞模式。
- 辅助漏洞修复:如o3所示,AI不仅能发现问题,还能对修复方案提出有价值的建议。
- 降低技术门槛:通过便捷的API接口,例如
https://api.aigc.bar
提供的国内中转API和低价API服务,使得更多开发者和中小型企业也能利用顶尖的AI能力进行安全建设,实现大模型API直连,获取包括Claude API、GPT API在内的多种模型支持。
对于安全研究员而言,这并非意味着被取代,而是能力的增强。他们可以将更多精力投入到更复杂、更具创造性的安全挑战中,而将重复性的代码排查工作部分交给AI。
AI驱动安全的未来:机遇与审慎并存
AI在漏洞发现方面的强大能力无疑是一把双刃剑。一方面,它可以帮助开发者和安全团队更早地发现和修复漏洞,构建更安全的系统;另一方面,这些能力也可能被恶意行为者利用,自动化地寻找并利用漏洞,对现有系统构成威胁。
因此,在积极拥抱AI带来的技术红利的同时,我们也必须高度关注其潜在风险,加强AI安全伦理研究,制定相应的规范和防御策略。随着技术的进步,AI在程序分析、自动化漏洞利用生成、智能防御等方面的能力将持续增强,信噪比问题也将逐步改善。
结论
o3模型通过纯API调用发现Linux内核零日漏洞,是AI技术在深度技术工作和科学发现领域取得的又一里程碑。它不仅展示了大模型在理解和分析复杂代码方面的惊人潜力,也预示着大模型API将成为推动网络安全技术革新的核心驱动力。未来,我们期待看到更多类似
https://api.aigc.bar
这样的平台,提供稳定、高效的大模型API服务,助力安全社区更好地利用AI这一强大工具,共同迎接一个由AI深度参与和保障的数字新纪元。同时,我们也必须保持审慎,确保这项技术的健康发展和负责任应用。Loading...