OpenAI计划提高AI安全测试结果发布频率
OpenAI于2025年5月14日宣布,将更频繁地发布AI安全测试结果,旨在提高透明度。这一举措与其加强的AI开发实践相一致,旨在解决对AI安全性的担忧,可能对监管审查和行业标准产生影响,从而增强对AI技术的信心。
OpenAI增加安全测试发布频率
OpenAI宣布将更频繁地发布AI安全测试结果。此前,OpenAI因减少测试时间而受到批评,与其声称的促进透明AI安全实践的承诺形成对比。OpenAI发布了HealthBench,用于测试AI模型在医疗保健领域的表现。该数据集遵循了该组织增加AI透明度的承诺,包括谷歌和Meta在内的多家公司参与了测试。
OpenAI的新透明度举措提振投资者信心
利益相关者对OpenAI评估自身模型表示担忧,认为评分可能存在偏见。此举可能导致公众和监管机构的审查增加,影响AI开发政策和行业标准。该举措可能通过提振投资者信心来影响金融投资。与谷歌等竞争对手的模型相比,OpenAI的技术优势得到了验证。历史数据显示,这种透明度提高了各行业对AI技术的信任和采用。
专家呼吁第三方AI评估
历史上,OpenAI曾发起多项举措以提高AI安全性,如2025年2月发布的关于防止滥用的《威胁情报报告》。这些努力反映了在创新与伦理考量之间取得平衡的尝试。专家意见表明,HealthBench可能需要外部审查。Girish Nadkarni对医疗保健环境中基于模型的评分提出警告。这与更广泛的行业监管、透明评估方法的呼吁相一致。
“HealthBench改进了大型语言模型在医疗保健领域的评估,但在支持安全声明之前,仍需要进行亚组分析和更广泛的人工审查。”——Girish Nadkarni,西奈山伊坎医学院人工智能与人类健康负责人