• 全部
  • 产业
  • Web 3.0
  • DAO
  • DeFi
  • 符文
  • 空投再质押
  • 以太坊
  • Meme
  • 比特币L2
  • 以太坊L2
  • 研报
  • 头条
  • 投资

免责声明:内容不构成买卖依据,投资有风险,入市需谨慎!

泰达币BitNet框架在iPhone 16上运行130亿参数AI模型

2026-03-18 05:20:13
收藏

Tether发布跨平台LoRA微调框架

Tether于本周二发布了面向微软BitNet大语言模型的跨平台LoRA微调框架,该框架使得在智能手机、消费级GPU及笔记本电脑上无需专业英伟达硬件即可进行人工智能训练。

据该公司公告称,此框架作为其QVAC Fabric平台的一部分,是首个支持在非英伟达芯片(包括AMD、英特尔、苹果芯片及移动GPU)上进行BitNet微调的解决方案。此次发布是对Tether于2025年12月首次推出框架的扩展。

新增组件专门针对异构消费级硬件实现了原生的BitNet LoRA微调与推理加速,突破了以往对企业级英伟达系统或云基础设施的依赖。

基准测试表现

Tether工程师在三星Galaxy S25设备上,使用约1.8万词元的生物医学数据集,对1.25亿参数的BitNet模型进行了约10分钟的微调。针对10亿参数模型,同等任务在S25上耗时1小时18分钟,在iPhone 16上则为1小时45分钟。

该公司还展示了在旗舰手机上微调最高38亿参数模型的能力,并在iPhone 16上实现了最高130亿参数模型的微调。在移动GPU上,BitNet推理速度相比CPU提升2至11倍。根据已公布的基准数据,10亿参数BitNet模型在推理与LoRA微调任务中的内存消耗,较同规模16位Gemma-3-1B模型降低77.8%。

对人工智能发展的意义

BitNet采用三元权重系统(取值限定为-1、0或1),相比标准16位模型显著压缩模型体积并大幅降低显存需求。而LoRA技术通过仅更新小型适配层而非重新训练完整模型,进一步降低了微调成本。两者的结合使得此前难以实现的边缘设备训练成为可能。

Tether首席执行官表示,该框架支持联邦学习工作流,可实现跨分布式设备的模型更新,且无需将数据传输至中心化服务器。相关代码已基于Apache 2.0许可证开源发布。

此次发布正值加密货币基础设施与人工智能计算领域界限持续融合之际。随着越来越多加密平台开始集成人工智能代理功能以支持链上交易,行业正迎来新的技术交汇点。

免责声明:

本网站、超链接、相关应用程序、论坛、博客等媒体账户以及其他平台和用户发布的所有内容均来源于第三方平台及平台用户。百亿财经对于网站及其内容不作任何类型的保证,网站所有区块链相关数据以及其他内容资料仅供用户学习及研究之用,不构成任何投资、法律等其他领域的建议和依据。百亿财经用户以及其他第三方平台在本网站发布的任何内容均由其个人负责,与百亿财经无关。百亿财经不对任何因使用本网站信息而导致的任何损失负责。您需谨慎使用相关数据及内容,并自行承担所带来的一切风险。强烈建议您独自对内容进行研究、审查、分析和验证。

展开阅读全文
更多新闻
自选
我的自选
查看全部
市值 价格 24h%