广受欢迎的开源预印本研究平台ArXiv近日宣布新政策:若作者提交的论文存在明显未经审阅的AI生成内容证据,将可能面临为期一年的禁令。ArXiv计算机科学领域主席托马斯·迪特里希于周四阐述了该举措,旨在应对日益增多的低质量AI生成研究对科学出版信任体系造成的冲击。
新规对研究者的具体影响
根据更新后的指导方针,若审核人员发现作者在提交前未核查大语言模型生成内容的“确凿证据”,论文将被拒收,且作者将面临一年内禁止在ArXiv发布成果的处罚。禁令期满后,作者须在受认可的同行评审平台成功发表后续研究成果,方可恢复投稿资格。
迪特里希特别指出,相关证据包括捏造的参考文献、无意义的引用或直接从大语言模型复制粘贴的错误内容。该政策并非完全禁止使用AI工具,而是要求作者对所有内容承担“完全责任”,无论其生成方式如何。这包括AI可能引发的剽窃、偏见性陈述和事实错误等问题。
维护科学完整性的重要意义
ArXiv长期作为快速传播研究成果的重要平台,尤其在计算机科学、数学和物理学领域。然而随着生成式AI的兴起,缺乏人工监督的投稿数量激增。近期同行评审研究显示,生物医学文献中捏造引用的现象有所增加,这很可能与大语言模型的使用有关。
通过执行此“一次违规即处罚”的规定,ArXiv旨在维护其知识库的可信度。政策同时包含申诉流程,允许作者对裁决提出异议。审核人员需先标记问题,各领域主席在实施处罚前必须确认证据的有效性。
对学术界的深远影响
此项政策反映了学术界日益形成的共识:AI工具应当辅助而非取代研究过程中的人工监督。在康奈尔大学托管二十余年后,ArXiv已转型为独立非营利组织,这使其在执行此类措施时更具灵活性。该平台已采取多项举措抑制AI生成投稿,包括要求首次发布者提供学术背书。
对研究者而言,信息十分明确:使用AI辅助起草或润色语言是可接受的,但未经严格事实核查与引证验证即提交成果则不可接受。这与科学出版领域更广泛的编辑标准相契合,其中问责制始终至关重要。
总结
在AI普及的时代,ArXiv的新禁令政策标志着维护预印本研究完整性的重要一步。通过对未审阅AI生成内容的作者实施处罚,该平台重申了“研究者须对成果承担最终责任”的基本原则。随着AI工具更深地融入研究流程,此类防护措施很可能将成为学术出版的标准化规范。
常见问题解答
问题一:新政策是否完全禁止在论文写作中使用AI?
答:不禁止使用AI,但禁止提交存在明显未经核查的AI生成内容(如捏造参考文献或语义混乱文本)的论文。
问题二:如何判定“AI滥用的确凿证据”?
答:包括虚构引文、引用不存在的文献源、以及直接复制粘贴大语言模型错误等表明未经人工审阅的证据。
问题三:作者能否对禁令提出申诉?
答:可以。政策包含申诉流程,审核人员标记问题后需经领域主席确认证据,作者有权对裁定提出异议。

交易所
交易所排行榜
24小时成交排行榜
人气排行榜
交易所比特币余额
交易所资产透明度证明
去中心化交易所
资金费率
资金费率热力图
爆仓数据
清算最大痛点
多空比
大户多空比
币安/欧易/火币大户多空比
Bitfinex杠杆多空比
ETF追踪
索拉纳ETF
瑞波币ETF
香港ETF
比特币持币公司
加密资产反转
以太坊储备
HyperLiquid钱包分析
Hyperliquid鲸鱼监控
大额转账
链上异动
比特币回报率
稳定币市值
期权分析
新闻
文章
财经日历
专题
钱包
合约计算器
账号安全
资讯收藏
自选币种
我的关注