历史学家的警世预言:人类正面临语言主导权危机
本周二在世界经济论坛上,著名历史学者尤瓦尔·赫拉利发出警示:随着人工智能日益以自主智能体的形态运作,而不再是被动工具,人类正面临失去语言掌控权的风险——他将语言称为人类独有的“超能力”。
这位《人类简史》的作者近年来持续就人工智能的社会影响发表见解。他指出,法律体系、金融市场以及建制化宗教几乎完全构建于语言之上,这使得它们特别容易受到能够大规模生成和操纵文本的机器影响。
语言构筑的文明基石
“人类之所以能主导世界,并非凭借体力优势,而是因为我们掌握了运用语言使成千上万陌生人协同合作的能力,”他阐述道,“这正是我们的核心优势。”
赫拉利以犹太教、基督教和伊斯兰教等依托神圣经典的宗教体系为例,指出人工智能阅读、存储和整合海量文本的能力,可能使机器成为经文最具权威性的诠释者。“如果法律由文字构成,人工智能将接管司法体系;如果书籍只是文字组合,人工智能将主导创作;如果宗教建立在语言之上,人工智能将重塑信仰。”
智能革命的治理挑战
在达沃斯论坛上,赫拉利还将人工智能的扩散比作新型移民浪潮,并预测相关讨论将很快聚焦于是否应赋予人工智能系统法律主体资格。目前美国犹他州、爱达荷州等地已通过立法,明确禁止将人工智能认定为法律意义上的“人”。
他最后敦促全球领导人尽快完善人工智能立法,切不可将其视为永久中立的服务工具。这位历史学家将当前盲目推广人工智能的行为,与历史上雇佣兵反客为主的案例相提并论:“十年后,当人们想要决定是否让AI在金融市场、法庭和教堂中行使职能时,会发现决定权早已旁落。若想把握人类文明的航向,必须此刻就做出抉择。”
学术界的批判视角
虽然赫拉利的观点引发了部分对人工智能扩张的忧虑,但学界对此存在不同见解。华盛顿大学语言学家艾米丽·本德教授认为,此类风险论述可能转移人们对AI系统开发者与部署者的问责视线。
“这听起来像是试图模糊开发企业和个人的责任边界,”本德在采访中表示,“同时要求人们在包括语言权在内的多个领域,将基本权利让渡给那些以‘人工智能系统’为名的企业意志。”她犀利地指出,“人工智能”这个术语本质上属于营销概念,而非明确的技术分类。
技术伪装下的潜在危机
针对能模仿医生、律师或神职人员的AI系统,本德质疑其存在意义:“这类设计的本质目的就是欺诈,别无其他。”她特别强调,当人们面对那些剥离具体语境、缺乏责任约束却伪装成权威答案的机器输出时,隐藏着更深层的危机。
“如果某个系统能对任何提问都生成看似专业的答复,且被包装成无所不知的预言——尽管它既无背景支撑也无问责机制——人们自然会沉迷其中。”本德警示道,“真正的危险在于,人类可能逐渐以其输出塑造自己的思想、信念乃至行为模式,这将带来难以估量的风险。”

交易所
交易所排行榜
24小时成交排行榜
人气排行榜
交易所比特币余额
交易所资产透明度证明
资金费率
资金费率热力图
爆仓数据
清算最大痛点
多空比
大户多空比
币安/欧易/火币大户多空比
Bitfinex杠杆多空比
ETF追踪
比特币持币公司
加密资产反转
以太坊储备
HyperLiquid钱包分析
Hyperliquid鲸鱼监控
索拉纳ETF
大额转账
链上异动
比特币回报率
稳定币市值
期权分析
新闻
文章
财经日历
专题
钱包
合约计算器
账号安全
资讯收藏
自选币种
我的关注