OpenAI启动安全研究资助计划,内部安全团队却已悄然解散
本周OpenAI发布的AI动态显得尤为尖锐:该公司推出了一项外部安全研究资助计划,为研究高级AI潜在风险的外部学者提供每周3,850美元的津贴。而就在数小时前,《纽约客》发布调查报告披露,OpenAI已解散了内部安全团队,并在其企业章程中悄然删除了“安全”相关表述。
这项于4月6日宣布的资助计划将持续六个月。入选者将获得每周3,850美元的生活津贴、每月价值约15,000美元的计算资源以及OpenAI研究员的指导,但无法访问公司内部系统。优先研究方向包括安全评估、伦理规范、系统鲁棒性、规模化风险缓解、隐私保护方法、智能体监督及高危害滥用防范等领域。申请已于5月3日截止,入选者将在7月25日前获得通知。
计划宣布同日曝出内部安全团队解散消息
《纽约客》记者罗南·法罗同期报道披露,自2024年以来,OpenAI已相继解散了超级对齐团队、AGI准备团队和使命对齐团队。报道中特别提到,当记者询问能否联系OpenAI的生存安全研究员时,公司代表反问道:“您所说的生存安全是指什么?这似乎并非一个正式概念。”
OpenAI将该项目定位为“支持独立安全与对齐研究、培育下一代人才的试点计划”。除生活津贴外,研究员每月还可获得约15,000美元的计算资源支持。该计划不仅面向AI专家,还欢迎网络安全、社会科学、人机交互等跨学科背景的研究者参与。
外部资助能否弥补内部安全架构缺失?
值得关注的是时间点的巧合。据《纽约客》调查,在22个月内,OpenAI连续解散了三个内部安全组织。超级对齐团队于2024年5月两位联合负责人离职后关闭,其中一位在离开时指出“安全文化和流程已让位于光鲜的产品”。AGI准备团队于2024年10月解散,使命对齐团队则在2026年2月结束了仅16个月的运作。
资助计划明确表示不取代内部架构。研究员仅能获得API额度与计算资源,无法接触内部系统,表明该计划本质上属于保持距离的研究资助,而非对已解散团队的重建。
研究要求与行业影响
研究议程涵盖七大优先领域。到2027年2月项目结束时,每位研究员须产出实质性成果,包括论文、基准测试或数据集。OpenAI强调更看重研究能力、技术判断力和执行能力,而非特定学术资历。
前沿AI公司安全承诺的可信度已成为影响资本配置的市场信号。投资者密切关注OpenAI的支出轨迹及其运营重点的可信度,尤其在AI基础设施与区块链系统交叉领域日益增长的背景下。外部研究员在无法接触内部系统的情况下,能否对模型发展产生实质性影响,将成为2027年初首批研究成果需要回答的关键问题。

交易所
交易所排行榜
24小时成交排行榜
人气排行榜
交易所比特币余额
交易所资产透明度证明
去中心化交易所
资金费率
资金费率热力图
爆仓数据
清算最大痛点
多空比
大户多空比
币安/欧易/火币大户多空比
Bitfinex杠杆多空比
ETF追踪
索拉纳ETF
瑞波币ETF
香港ETF
比特币持币公司
加密资产反转
以太坊储备
HyperLiquid钱包分析
Hyperliquid鲸鱼监控
大额转账
链上异动
比特币回报率
稳定币市值
期权分析
新闻
文章
财经日历
专题
钱包
合约计算器
账号安全
资讯收藏
自选币种
我的关注