新京报客户端

好新闻 无止境

立即打开
可实现离线环境AI对话 通义千问大模型落地手机芯片
新京报 记者 罗亦丹 编辑 陈莉
2024-03-28 12:04

新京报贝壳财经讯(记者罗亦丹)想要使用大模型,但必须联网?未来可能一部手机便能支撑起AI对话的进行。3月28日,贝壳财经记者获悉,全球最大的智能手机芯片厂商MediaTek联发科,已成功在天玑9300等旗舰芯片上部署通义千问大模型,首次实现大模型在手机芯片端深度适配。


具体来看,通义千问18亿、40亿参数大模型已成功部署进天玑9300移动平台,可离线运行即时多轮AI对话应用,连续推理功耗增量不到3W,这是通义大模型首次完成芯片级的软硬适配,仅依靠终端算力便能拥有AI推理性能及功耗表现,标志着Model-on-Chip(芯片上模型)的探索正式从验证走向商业化落地新阶段。


端侧AI是大模型落地的极具潜力的场景之一。利用终端算力进行AI推理,可大幅降低推理成本、保证数据安全并提升AI响应速度,让大模型可以更好地为用户提供个性化体验。然而,要将大模型部署并运行在终端,需完成从底层芯片到上层操作系统及应用开发的软硬一体深度适配,存在技术未打通、算子不支持、开发待完善等诸多挑战。


阿里巴巴通义实验室业务负责人徐栋介绍称,阿里云与MediaTek在模型瘦身、工具链优化、推理优化、内存优化、算子优化等多个维度展开合作,实现了基于AI处理器的高效异构加速,真正把大模型“装进”并运行在手机芯片中,给业界成功打样端侧AI的Model-on-Chip部署新模式。


基于天玑9300芯片,通义千问18亿参数大模型在推理时CPU占有率为30%左右,RAM占用少于2GB,推理速度超过20tokens/秒,可在离线环境下流畅实现多轮AI对话。据了解,相关成果将以SDK(软件开发工具包)的形式提供给手机厂商和开发者。


此外,双方团队也已完成了通义千问40亿参数大模型与天玑9300的适配,未来还将基于天玑适配70亿等更多尺寸大模型,“打样”并支持开发更多AI智能体及应用。


MediaTek无线通信事业部副总经理李彦辑博士表示,期待通过双方的合作可以为应用开发者和终端客户提供更强大的硬件和软件解决方案,同时促进生成式AI的端侧部署以及AI应用、AI智能体生态的快速发展。


编辑 陈莉 校对 赵琳


来阅读我的更多文章吧
罗亦丹
新京报记者
记者主页
相关推荐
“科幻+未来交通”专题论坛举办
新京号
报告解读丨支持大模型广泛应用,委员建议释放更多高价值场景
时事
两会民企谈|刘庆峰:拥抱AI时代,但不要过度焦虑
科技
大模型震荡时刻:DeepSeek掀桌百度开源 免费成必答题
科技
两会民企谈|京东曹鹏:建议统一调度多元算力资源打破壁垒
科技
生成式人工智能赋能基础教育高质量发展论坛在北京市广渠门中学召开
新京号
传音与阿里云达成合作 推出可离线AI对话的手机
科技
站在风口的AI玩具:价格不菲仍卖爆,是儿童“新宠”还是智商税
科技
回顾2024:AI和新硬件,开始改变我们的生活方式
新京号
一周碳要闻:2024全国绿色发展跨入新阶段(碳报第127期)
财经

新京报报料邮箱:67106710@bjnews.com.cn