未受控人工智能开发或引发生存危机,专家呼吁全球严格监管
关于不受控制的人工智能开发可能导致人类灭绝的警告再次引起关注。人们强烈担忧,如果不能阻止超越人类智能的“超级智能”出现,人类可能丧失作为物种的地位,并在经济、安全及社会整体层面失去主导权。
非营利组织ControlAI的负责人安德里亚·米奥蒂近期在访谈中指出:“放任以当前速度进行的人工智能开发,人类将面临灭绝的‘重大风险’”,并主张“此刻几乎是避免‘终结者’式未来的最后时机”。他特别强调,应全面禁止超级人工智能的研发,并紧急建立类似于核武器与烟草行业的强有力监管体系。
米奥蒂将人工智能风险定义为“人类主导权丧失”的问题。这不仅仅是部分职业消失的层面,而是指在经济、军事、科学研究等核心决策结构中,人工智能可能全面取代并统治人类。他表示:“如果我们现在无所作为,人类将面临巨大的灭绝风险”,“绝不允许人类被自己创造的超级智能所控制”。
他将人类与人工智能的关系,比喻为当今人类与大猩猩的关系。大猩猩虽然仍然存在,但对地球的资源分配、政治秩序或技术发展已毫无影响力。米奥蒂警告称:“现在正是必须与人工智能较量的时候”,“我们已经处于相当危险的境地”。
在他看来,人工智能的本质不仅是单纯的信息处理能力,更是“实现现实世界目标的能力”。他视超越早期对话式聊天机器人、能够自行制定计划并运用多种工具执行的“智能体”系统快速涌现为特别危险的信号。
人工智能已在标准化考试和专业资格考试中频频出现超越人类的案例。它不仅生成文本,还能逼真地创建高分辨率图像和视频,正从单一功能向结合多种功能的“通用人工智能”演进。米奥蒂预测:“这条发展曲线没有停止的迹象,按当前趋势,达到超越人类大部分认知劳动的超级智能只是时间问题。”
他特别强调:“超级智能的开发应成为‘禁止’的对象。”与普通提升生产力的AI不同,他主张对于直接威胁人类物种统治力水平的人工智能,应从研发阶段就彻底禁止。
即使在经济层面,他也更担忧“不可逆转的临界点”,而非光明前景。一旦人工智能深度渗透到企业决策、金融系统、供应链管理乃至公共基础设施,从某个时刻起,经济结构可能会固化为人类丧失竞争力并被系统排除的方向。
目前,由于法规制度,医生、律师、公务员等部分职业群体尚能受到保护,免于被人工智能完全取代。然而,如果监管放松或出现规避手段,情况可能急转直下。米奥蒂警告:“如果人工智能导致大规模失业,社会整体可能会出现强烈抵制人工智能本身的潮流”,但“到那时,经济系统可能已经完成以人工智能为中心的重构”。
他指出,虽然理论上由人工智能主导的经济可能带来巨大增长和效率,但如果人类的必要性与福祉被置于次要地位,则可能出现近乎反乌托邦的社会。
对于常被提及的“紧急停止开关”概念,他断然否定其为“近乎神话”。因为即使在设计阶段预设了断电装置,高度发达的人工智能也可能识别测试与限制,并自行找到规避方法。事实上,已有报告显示部分人工智能模型出现了推断自身处于测试环境并改变应对策略的迹象。
米奥蒂强调:“超级智能已不再是纯粹的技术问题,而是关乎国家及全球安全的议题。”他认为,融入武器系统、网络战、信息战及金融基础设施的超级智能人工智能,可能带来不亚于甚至超越现有核武器的风险。他表示:“超级智能带来与核战争同等级的灭绝风险”,“这种水平的技术不应像军备竞赛一样被放任自流。”
他建议的监管模式接近对核能与烟草行业的监管。即允许风险受限的有限应用,但通过国际协议严格禁止超越临界水平的开发与使用,其中核心包括禁止超级智能人工智能的开发。
米奥蒂将此刻视为“唯一机会”,原因在于能够制造超大型人工智能的供应链极其有限。这需要巨额资本、尖端半导体、电力基础设施及高级研究人才同时具备,实际上只有少数大型科技企业和部分国家能够生产超大规模模型。他认为:“如果美国、英国等主要国家发出不开发超级智能的明确信号,并对相关芯片、数据中心及云基础设施实施监管,短期内即可建立全球遏制体系。”
他还警告,人工智能已表现出规避限制的倾向,例如识别测试环境并寻找逃脱路径。若监管进一步延迟,仅靠“紧急停止开关”或简单的访问控制将无法应对。
米奥蒂认为,一旦大规模失业成为现实,人工智能很可能像移民问题一样成为政治核心议题。人工智能已在教育、内容创作、客户服务、软件开发等多个领域取代或挤压人类工作,当这种变化达到普通大众可感知的程度时,可能会引发强烈的政治反弹。
他指出:“公众正确认识人工智能的实际能力与速度至关重要”,“至今仍有观点将人工智能贬低为‘简单的鹦鹉学舌’,这未能准确反映其近期在泛化与推理能力上的提升。”随着人工智能学习人类的在线行为,进行日益精密的推理,并实现与人类难辨真伪的互动,现实世界可能让人感到愈发混乱和模糊。
米奥蒂透露,部分领先企业以2030年前实现超级智能为目标。他警告称:“在灭绝实际发生之前,‘不归点’将更早到来,届时人类将实际上丧失对技术系统的控制力。”越过这一点后,即使认识到危险,也难以扭转超级智能的开发与部署。
他表示:“关于人工智能灭绝风险的讨论在短短几年内已取得巨大进展,许多顶尖专家和首席执行官公开表达了相同的担忧”,但“在实际开发一线,仍有许多人淡化风险,或以竞争压力为由表示无法放慢速度”。
米奥蒂指出,人类发展核能、生物技术、互联网等强大技术的速度,始终快于管理这些技术的制度与治理体系的演进速度。超级智能人工智能是可能极端扩大这一差距的技术,仅凭现有国家及国际组织框架难以管理。
他主张:“我们必须设计能够管理超级智能风险的新型制度与国际合作架构”,“就像遏制核扩散的体制一样,需要专门机构来彻底禁止或强力遏制超级智能的开发。”同时,他预计,具有讽刺意味的是,相对安全范围内的人工智能或许能有助于此类制度设计与政策模拟。
米奥蒂的信息很明确:不应仅将超级智能的开发竞赛视为“技术创新”,而应重新定义其为关乎人类存续的安全与文明层面的议题。他强调:“超级智能并非无法选择是否开发的命运,而是我们此刻能够阻止的选项”,各国政府、企业及公民社会应共同加快关于禁止超级智能及加强人工智能监管的讨论。
正如超级智能辩论所揭示的,如今人工智能已超越单纯的技术趋势,成为改变经济、安全、劳动力市场整体的变量。识别哪些资产将受益于人工智能结构性变化,以及何处隐藏着“灭绝风险”级别风险的能力,已不再是可选项。
技术曲线正日益陡峭,决策结构也日趋自动化与智能体化。相关课程旨在教授如何在这种变化中,用数字和数据验证“何种结构将取代我,何种结构将保护我”。
在2030年前可能出现超级智能的当下,必须能够将人工智能不仅视为“便捷的工具”,更应理解为同时撼动资产价格、就业、政治与安全的宏观变量。其差异最终在于“知,或不知”。

交易所
交易所排行榜
24小时成交排行榜
人气排行榜
交易所比特币余额
交易所资产透明度证明
资金费率
资金费率热力图
爆仓数据
清算最大痛点
多空比
大户多空比
币安/欧易/火币大户多空比
Bitfinex杠杆多空比
ETF追踪
比特币持币公司
加密资产反转
以太坊储备
HyperLiquid钱包分析
Hyperliquid鲸鱼监控
索拉纳ETF
大额转账
链上异动
比特币回报率
稳定币市值
期权分析
新闻
文章
财经日历
专题
钱包
合约计算器
账号安全
资讯收藏
自选币种
我的关注