自选
我的自选
查看全部
市值 价格 24h%
  • 全部
  • 产业
  • Web 3.0
  • DAO
  • DeFi
  • 符文
  • 空投再质押
  • 以太坊
  • Meme
  • 比特币L2
  • 以太坊L2
  • 研报
  • 头条
  • 投资

免责声明:内容不构成买卖依据,投资有风险,入市需谨慎!

维塔利克·布特林预警:超智能AI可能比想象的更早到来

2025-01-06 14:56:54
收藏

以太坊联合创始人Vitalik Buterin对超级AI发出警告

以太坊联合创始人Vitalik Buterin近日就超级智能AI带来的风险发出警告,并强调建立强大防御机制的必要性。Buterin发表此番言论之际,正值人工智能快速发展,人们对AI安全性的担忧与日俱增。

防御性加速理论

在1月5日发表的观点中,Buterin阐述了“防御性加速”(d/acc)理念,主张技术发展应以防御而非造成伤害为目标。不过,这并非Buterin首次谈及AI相关风险。2023年,他曾表示:“AI失控可能以(几乎)最糟糕的方式让世界变得更糟:它可能直接导致人类灭绝。”

Buterin近日对其2023年的理论进行了进一步阐述。他认为,超级智能可能在未来几年内就会出现。“看起来我们可能在三年内实现通用人工智能(AGI),再过三年就能达到超级智能水平。因此,如果我们不想让世界毁灭或陷入不可逆转的困境,我们不仅要加速善的方面,还必须减缓恶的方面。”

降低AI风险的建议

为降低AI相关风险,Buterin建议创建与人类决策保持紧密联系的系统。通过确保AI始终是掌握在人类手中的工具,可以将灾难性后果的威胁降至最低。

Buterin还解释了军队可能成为“AI末日”情景的责任方。全球范围内AI军事应用正在增加,这在乌克兰和加沙地区已有体现。Buterin认为,任何可能生效的AI监管措施很可能都会豁免军事领域,这使得军队成为重大威胁。

监管方案

这位以太坊联合创始人进一步阐述了其监管计划。他表示,避免AI相关风险的第一步是让用户承担责任。“虽然模型开发方式与其最终使用方式之间的联系往往不明确,但用户决定了AI的确切用途,”Buterin解释道,强调了用户所扮演的角色。

如果责任规则不起作用,下一步将是实施“软暂停”按钮,让AI监管能够减缓潜在危险发展的速度。“目标是在关键时期具备将全球可用计算能力减少约90-99%持续1-2年的能力,为人类争取更多准备时间。”

他说,暂停可以通过AI位置验证和注册来实现。另一种方法是控制AI硬件。Buterin解释说,AI硬件可以配备一个控制芯片。该芯片将允许AI系统仅在每周获得三个国际机构签名的情况下运行。他进一步补充说,其中至少有一个机构应是非军事性质的。

尽管如此,Buterin承认他的策略存在漏洞,只是“临时解决方案”。

免责声明:

本网站、超链接、相关应用程序、论坛、博客等媒体账户以及其他平台和用户发布的所有内容均来源于第三方平台及平台用户。百亿财经对于网站及其内容不作任何类型的保证,网站所有区块链相关数据以及其他内容资料仅供用户学习及研究之用,不构成任何投资、法律等其他领域的建议和依据。百亿财经用户以及其他第三方平台在本网站发布的任何内容均由其个人负责,与百亿财经无关。百亿财经不对任何因使用本网站信息而导致的任何损失负责。您需谨慎使用相关数据及内容,并自行承担所带来的一切风险。强烈建议您独自对内容进行研究、审查、分析和验证。

展开阅读全文
更多新闻