以太坊联合创始人Vitalik Buterin对超级AI发出警告
以太坊联合创始人Vitalik Buterin近日就超级智能AI带来的风险发出警告,并强调建立强大防御机制的必要性。Buterin发表此番言论之际,正值人工智能快速发展,人们对AI安全性的担忧与日俱增。
防御性加速理论
在1月5日发表的观点中,Buterin阐述了“防御性加速”(d/acc)理念,主张技术发展应以防御而非造成伤害为目标。不过,这并非Buterin首次谈及AI相关风险。2023年,他曾表示:“AI失控可能以(几乎)最糟糕的方式让世界变得更糟:它可能直接导致人类灭绝。”
Buterin近日对其2023年的理论进行了进一步阐述。他认为,超级智能可能在未来几年内就会出现。“看起来我们可能在三年内实现通用人工智能(AGI),再过三年就能达到超级智能水平。因此,如果我们不想让世界毁灭或陷入不可逆转的困境,我们不仅要加速善的方面,还必须减缓恶的方面。”
降低AI风险的建议
为降低AI相关风险,Buterin建议创建与人类决策保持紧密联系的系统。通过确保AI始终是掌握在人类手中的工具,可以将灾难性后果的威胁降至最低。
Buterin还解释了军队可能成为“AI末日”情景的责任方。全球范围内AI军事应用正在增加,这在乌克兰和加沙地区已有体现。Buterin认为,任何可能生效的AI监管措施很可能都会豁免军事领域,这使得军队成为重大威胁。
监管方案
这位以太坊联合创始人进一步阐述了其监管计划。他表示,避免AI相关风险的第一步是让用户承担责任。“虽然模型开发方式与其最终使用方式之间的联系往往不明确,但用户决定了AI的确切用途,”Buterin解释道,强调了用户所扮演的角色。
如果责任规则不起作用,下一步将是实施“软暂停”按钮,让AI监管能够减缓潜在危险发展的速度。“目标是在关键时期具备将全球可用计算能力减少约90-99%持续1-2年的能力,为人类争取更多准备时间。”
他说,暂停可以通过AI位置验证和注册来实现。另一种方法是控制AI硬件。Buterin解释说,AI硬件可以配备一个控制芯片。该芯片将允许AI系统仅在每周获得三个国际机构签名的情况下运行。他进一步补充说,其中至少有一个机构应是非军事性质的。
尽管如此,Buterin承认他的策略存在漏洞,只是“临时解决方案”。