谷歌再次警示人工智能风险
谷歌威胁情报小组近日发布最新报告,指出由国家资助的危险黑客组织正在利用人工智能技术展开攻击活动。研究团队发现,针对人工智能模型的知识产权窃取行为有所增加——攻击者通过反复查询模型参数,试图解析其内部逻辑并复制为新模型。
国家级威胁行为体的新手段
报告重点揭示了部分国家背景的黑客组织正将大型语言模型用于技术研究、目标锁定及钓鱼邮件生成。这些组织利用包括谷歌旗下产品在内的AI工具,大规模开展开源情报收集,并制造高度个性化的钓鱼骗局。
报告指出:"这种趋势标志着钓鱼攻击正向AI增强模式转变,大型语言模型的快速响应与精准生成能力,正在取代传统人工锁定受害者的工作流程。以往依靠语法错误、句式生硬或文化语境缺失等特征识别钓鱼攻击的方法正面临挑战。"
研究显示,攻击者通过向AI模型输入目标对象的个人履历,即可生成高度仿真的虚拟身份,并设计出极具针对性的诱骗场景。人工智能还使跨国语言诈骗变得更为顺畅,同时其代码生成能力正被用于恶意软件开发与自动化攻击工具构建。
自主式AI的风险演进
报告特别警示了自主式人工智能的实验性应用风险。这类具备一定自主行动能力的AI系统,可能被用于自动化恶意软件开发等危险领域。尽管当前尚未出现突破性的AI攻击能力,但工具滥用风险正在持续扩大。
谷歌方面表示已建立专门团队持续监测威胁动态,并通过技术手段强化模型安全防护。研究团队正致力于在威胁形成前识别潜在风险,通过前置化处置降低人工智能技术的滥用可能。

交易所
交易所排行榜
24小时成交排行榜
人气排行榜
交易所比特币余额
交易所资产透明度证明
资金费率
资金费率热力图
爆仓数据
清算最大痛点
多空比
大户多空比
币安/欧易/火币大户多空比
Bitfinex杠杆多空比
ETF追踪
比特币持币公司
加密资产反转
以太坊储备
HyperLiquid钱包分析
Hyperliquid鲸鱼监控
索拉纳ETF
大额转账
链上异动
比特币回报率
稳定币市值
期权分析
新闻
文章
财经日历
专题
钱包
合约计算器
账号安全
资讯收藏
自选币种
我的关注