Tether发布跨平台LoRA微调框架
Tether于本周二发布了面向微软BitNet大语言模型的跨平台LoRA微调框架,该框架使得在智能手机、消费级GPU及笔记本电脑上无需专业英伟达硬件即可进行人工智能训练。
据该公司公告称,此框架作为其QVAC Fabric平台的一部分,是首个支持在非英伟达芯片(包括AMD、英特尔、苹果芯片及移动GPU)上进行BitNet微调的解决方案。此次发布是对Tether于2025年12月首次推出框架的扩展。
新增组件专门针对异构消费级硬件实现了原生的BitNet LoRA微调与推理加速,突破了以往对企业级英伟达系统或云基础设施的依赖。
基准测试表现
Tether工程师在三星Galaxy S25设备上,使用约1.8万词元的生物医学数据集,对1.25亿参数的BitNet模型进行了约10分钟的微调。针对10亿参数模型,同等任务在S25上耗时1小时18分钟,在iPhone 16上则为1小时45分钟。
该公司还展示了在旗舰手机上微调最高38亿参数模型的能力,并在iPhone 16上实现了最高130亿参数模型的微调。在移动GPU上,BitNet推理速度相比CPU提升2至11倍。根据已公布的基准数据,10亿参数BitNet模型在推理与LoRA微调任务中的内存消耗,较同规模16位Gemma-3-1B模型降低77.8%。
对人工智能发展的意义
BitNet采用三元权重系统(取值限定为-1、0或1),相比标准16位模型显著压缩模型体积并大幅降低显存需求。而LoRA技术通过仅更新小型适配层而非重新训练完整模型,进一步降低了微调成本。两者的结合使得此前难以实现的边缘设备训练成为可能。
Tether首席执行官表示,该框架支持联邦学习工作流,可实现跨分布式设备的模型更新,且无需将数据传输至中心化服务器。相关代码已基于Apache 2.0许可证开源发布。
此次发布正值加密货币基础设施与人工智能计算领域界限持续融合之际。随着越来越多加密平台开始集成人工智能代理功能以支持链上交易,行业正迎来新的技术交汇点。

交易所
交易所排行榜
24小时成交排行榜
人气排行榜
交易所比特币余额
交易所资产透明度证明
去中心化交易所
资金费率
资金费率热力图
爆仓数据
清算最大痛点
多空比
大户多空比
币安/欧易/火币大户多空比
Bitfinex杠杆多空比
ETF追踪
比特币持币公司
加密资产反转
以太坊储备
HyperLiquid钱包分析
Hyperliquid鲸鱼监控
索拉纳ETF
大额转账
链上异动
比特币回报率
稳定币市值
期权分析
新闻
文章
财经日历
专题
钱包
合约计算器
账号安全
资讯收藏
自选币种
我的关注