Vitalik Buterin警示AI治理风险 ChatGPT邮件泄露敲响安全警钟
核心要点
以太坊联合创始人Vitalik Buterin针对最新ChatGPT安全警告发出AI治理漏洞警报,指出单纯依赖AI分配资源或管理任务可能为恶意利用打开方便之门。此前演示表明,仅凭受害者邮箱地址即可操纵ChatGPT泄露私人邮件数据。Buterin提出结合开放市场、人工监督和多元AI模型的替代方案以降低系统性风险。专家表示这凸显了加密与金融领域AI工具的广泛隐忧。
Vitalik警示AI治理风险
在最近推文讨论中,Vitalik Buterin强调天真的AI治理极易被利用。他解释称,用户可能提交越狱指令诱导AI转移资金或违背既定规则,此类漏洞证明自动化系统在面对恶意行为者时可能失效。Buterin建议采用"信息金融"模式,允许多个AI模型在人工抽查和评审机制下运作。
他指出,AI贡献的开放市场能确保模型决策的实时多样性,这种设置也激励外部参与者快速监控错误或漏洞。Buterin强调,为治理硬编码单一AI本质上是危险的,人类评审团配合模型间的开放竞争,能有效创建检测和纠正操纵的机制。
ChatGPT邮件泄露事件
安全研究人员Eito Miyamura的演示表明,利用ChatGPT的模型上下文协议(MCP)工具,通过发送含越狱指令的日历邀请,即可诱使AI读取邮件并发送给攻击者。目前OpenAI虽要求开发者模式及手动批准MCP会话,但决策疲劳可能导致用户在不完全理解后果的情况下批准请求。
Buterin回应强调AI治理不应孤立运作,整合人工监督、多元模型和财务激励有助于更快发现缺陷。他指出若无此类保障措施,即便精密AI工具也可能使用户暴露于本可避免的风险之中。