【云览观点】“在这个技术狂飙突进的时代,安全总是滞后于功能。AI是否存在漏洞,或许有明确的定义,但在企业的实际攻防场景中,任何被利用来绕过限制的手段,都是我们需要正视的威胁。”

在网络安全行业,我们常说:“未被定义的风险,是最大的隐患。”

然而,当我们在谈论人工智能(AI)的安全风险时,甚至连“什么是漏洞”这件事,厂商和安全研究员都还没能达成共识。

最近,一起关于 Microsoft Copilot 的漏洞争议,在圈内引发了激烈讨论。一名安全工程师声称发现了Copilot的多个高危漏洞,结果却被微软一一拒收,理由是——“这些不符合我们的漏洞服务标准”。

这究竟是大厂傲慢,还是技术认知的偏差?在AI大模型深入企业核心业务的今天,这场争论背后的逻辑,值得每一位网安人深思。

争议焦点:是“漏洞”还是“特性”?

事情的起因源自网络安全工程师 John Russell 在 LinkedIn 上的一篇“控诉”。他上个月向微软报告了4个所谓的Copilot漏洞,但收到的回复都是“不符合服务条件”。

被微软拒收的这些问题包括:

1. 直接和间接的提示词注入,导致系统提示词泄露;

2. 利用 Base64 编码绕过 Copilot 的文件上传类型限制;

3. 在 Copilot 隔离的 Linux 环境中执行命令。

在这些问题中,Base64 编码绕过文件上传限制尤为引人玩味。

我们都知道,为了防止恶意文件上传,AI助手通常会限制某些“高风险”文件格式。但 Russell 发现了一个简单的“魔法”:只要把这些文件转换成 Base64 文本字符串,存入 .txt 文件上传,就能轻松骗过初始检查。

一旦文件上传成功,用户只需在对话中要求 Copilot 解码这段文本,原本被禁止的文件就“借尸还魂”了,Copilot 甚至会对其进行分析。这就好比保安只查包裹上的标签,却不打开看看里面装的到底是什么。

行业分歧:已知限制还是设计缺陷?

这一现象立刻引发了安全社区的“站队”。

资深网络安全专家 Raj Marathe 表示赞同,他回忆起去年见过的一个Demo:有人将提示词攻击代码隐藏在 Word 文档中上传,导致 Copilot “发疯”甚至锁定了用户。这说明问题不仅真实存在,而且后果可能很严重。

但反方观点同样犀利。安全研究员 Cameron Criswell 指出,这些路径相对已知,本质上是因为大语言模型(LLM)至今仍难以完美区分“数据”与“指令”。

Criswell 认为,这只是大模型的通病,只要模型还要保持实用性,这种风险就很难根除。如果把这都算作漏洞,那AI可能就没法用了。

对此,John Russell 并不买账。他反驳道,竞争对手 Anthropic 的 Claude 就能完美拒绝这些攻击手段。这说明这不是模型原理的死结,而是输入验证做得到不到位的问题。

深度解读:到底谁说了算?

要理解微软的立场,我们需要先搞懂一个核心概念:系统提示词。

它是隐藏在AI背后的“上帝指令”,决定了AI能说什么、不能说什么。如果系统提示词里包含敏感信息,或者被黑客通过注入攻击篡改,后果不堪设想。

然而,OWASP GenAI 项目 对此给出了一个非常“中立且精辟”的界定:“系统提示词泄露本身并不代表真正的风险。真正的风险在于其后果——敏感信息泄露、绕过护栏、权限混乱等。”

简单来说,OWASP 认为,仅仅知道系统提示词写了什么(泄露),并不等同于造成了实质性危害。除非攻击者利用这些信息干成了坏事。

微软正是基于这一逻辑做出了判断。根据其公开的“漏洞判定标准”,如果一个报告没有跨越明确的安全边界,或者影响仅限于用户自身的执行环境,亦或是只是暴露了一些低权限信息,微软就不认为这是需要立即修复的“安全漏洞”。

微软发言人在回应 BleepingComputer 时也强调了这一点:“如果安全边界没有被跨越,或者影响仅限于请求用户的执行环境,这种情况通常被视为超出范围。”

给甲方的启示

作为网安从业者,我们不仅要看热闹,更要看门道。这场“公说公有理,婆说婆有理”的争论,给正在积极拥抱AI的企业安全团队提了个醒:

1. 不要迷信大厂的“安全背书”:厂商从商业利益出发,往往会将某些风险界定为“预期行为”。作为甲方,你必须有自己的判断标准。

2. 重新审视你的AI安全边界:Copilot 的 Base64 绕过问题提醒我们,传统的基于文件类型的检测在AI时代已经失效。你需要关注的是数据流本身,而不仅仅是文件后缀。

3. 建立防御机制:既然AI模型难以区分指令与数据,那么在AI接入企业核心数据前,必须部署中间层进行严格的输入清洗和输出过滤。

随着以 MCP (Model Context Protocol) 为代表的AI连接协议逐渐成为标准,模型与工具、数据的交互将更加频繁和复杂。这也意味着,类似的争议只会越来越多,不会越来越少。

结语

在这个技术狂飙突进的时代,安全总是滞后于功能。Copilot 是否存在漏洞,或许在微软的Bug Bar 上有明确的定义,但在企业的实际攻防场景中,任何被利用来绕过限制的手段,都是我们需要正视的威胁。

对于安全人来说,重要的不是争论名词的定义,而是构建起足以应对这些“模糊边界”的防御体系。


原文链接

上一篇:Gartner 2026年十大战略技术趋势  
下一篇:OpenAI发布新一代AI模型GPT-5