11月1日,vivo开发者大会上,vivo自主研发的通用大模型——蓝心大模型矩阵正式亮相给广大用户和开发者带来很多惊喜。
在当天举行的人工智能大会上,vivo AI团队分享了全球领先的蓝心模型的研发流程、安全设计、工程实践、生态建设等话题,用领先的AI技术助力发展世界的。
研究人员和生态合作伙伴可以抓住行业趋势和机会,打通商业闭环,实现普惠的人工智能效益。
vivo蓝心大模四大优势引领智能体验创新。
目前,vivo已经构建了完整的大模型矩阵,覆盖了从数十亿到数千亿的不同参数规模,并开源了70亿参数的大模型。
大模型矩阵覆盖不同用户场景,确保最佳体验为用户带来价值;而开源模式帮助合作伙伴低门槛获取大模型技术,促进行业发展。
vivo AI算法负责人陈晓昕指出,蓝心大模型有四大特点:更懂手机、支持端侧应用、安全可控、开源。
它对手机的运行机制有更深入的理解,可以直接部署在手机上,天然支持终端侧应用,配备完整的安全管理功能,拥抱开源生态。
陈晓昕还分享了蓝心大模型的技术全景,即在应用层,大模型可以服务于手机、互联网、营销等领域;能力层,不断提升大模型的语言理解、逻辑推理等关键技能;模型层,继续优化文本大模型,并计划推出语音和多模态大模型。
vivo AI算法负责人、陈晓昕提供全链路、全周期保驾护航,保障蓝心大模型的安全实施。
为了应对AI安全挑战,vivo打造了全新的安全能力体系,涵盖了从数据采集、模型训练、内容安全、业务安全等全环节、全周期的开发,针对数据制定了详细的安全等级划分。
级别,在训练阶段不断调优模型,为蓝心大模型的安全着陆保驾护航。
vivo AIGC安全团队负责人李方圆表示,针对大型移动终端机型的安全,vivo还打造了业界首个设备端过滤能力,可以保证用户的私密文件、照片不被上传到云端,并在设备端审核并返回给用户。
同时,构建快速干预机制,通过知识库内容补充来弥补大模型知识的局限性,通过知识注入减少大模型的错觉和不可控性。
Vivo AIGC安全专项团队负责人和李方圆的AI工程系统为大模型生产降低了成本并提高了效率。
大模型训练难度大、成本高、实施效率低。
为此,vivo构建了AI工程系统,帮助预训练、微调和部署大型模型,以降低成本、提高效率。
据vivo AI架构专家陈崇培介绍,AI工程系统支持从数亿参数到千亿参数的模型,同时构建多个平台:训练平台支持千卡级别的分布式训练;微调平台微调强化指令学习有完整支持;部署平台可以解决推理服务性能问题;计算平台可以提供高性能计算、高性能存储和高速网络能力。
陈崇培还分享了蓝心大模型预训练案例和千亿级大模型部署案例,并透露vivo已联手阿里云打造千卡级计算集群,该集群为国内首个配备配备最先进的H系列GPU。
vivo AI架构专家陈崇培灵均智能计算服务让vivo的大模型创新敏捷而稳健。
考虑到大模型的创新和应用需要强大的AI基础设施支撑,阿里云机器学习平台研发负责人谭锋表示,阿里云人工智能平台PAI打造灵君智能计算服务,为合作伙伴提供端到端的AI基础设施。
此次PAI重点从工程化、高性能、稳定性等方面打造解决方案,帮助vivo高效稳定发展大机型业务。
PAI为vivo构建了CPFS分布式文件存储系统,支持百万级IOPS和存储容量无缝在线扩展,为训练数据、模型文件、模型检查点提供稳定可靠的分布式存储。
同时,PAI可以实时监控训练任务的状态,及时发现故障并调度到不同的节点恢复运行。
它还支持自动保存模型训练任务的步骤粒度。
训练中断后,进度可以在几秒内恢复而不会丢失,让vivo的模型创新兼顾了灵敏度和稳定性。
阿里云机器学习平台研发负责人谭锋升级计算加速平台,支持大型模型的端侧实现。
vivo AI长期以来一直在推动端侧战略。
此次再次升级计算加速平台VCAP,支持大型模型的端侧实现。
vivo AI终端计算负责人陆晶表示,vivo深入分析大模型特点,全面优化算法模型、工具、底层加速框架和内核层面,设计了大模型终端侧化的完整解决方案。
在算法模型层面,vivo在结构设计上选择更适合端侧加速的子结构设计和尺寸;在工具层面,采用int4作为权重存储,减少模型大小和内存占用,充分利用带宽,实现极致的性能优化;同时,对框架设计和底层运行时进行了优化,以实现极致的性能和功耗。
目前,vivo的蓝心大模型和视觉大模型已经在手机端成功上线。
vivo成为首家也是唯一一家使用自研大机型实现手机端规模化产品上市的手机厂商。
vivo AI侧算力负责人的鲁晶智能架构,为大型语言模型配备了“眼睛和手”。
针对大模型实现的挑战,vivo创新性地提出了智能架构,为大语言模型配备了“眼睛和手”,进一步拓展了大语言模型的范围。
该模型的应用边界实现了从会话助理到全能助理的转变。
vivo AI系统智能负责人熊关静表示,vivo将以蓝心的大模型为大脑,通过完整的开放架构体系进行构建。
它将与开发者在技能插件开发、数据感知集成、模型部署等方面深度合作,共同实现能说会做。
,一个了解您个人并乐于分享的全能助手。
熊贯京强调,“自主性”将是大型模型相关应用的核心衡量标准之一。
通过系统级丰富的场景感知结合大型AI模型的意图理解,vivo一直在推动智能代理实现“不需要表达,它自然会懂你”的主动智能。
vivo AI系统智能负责人熊关静增强AI平台能力,帮助开发者智能进化。
长期以来,vivo依托开发者平台为开发者提供丰富的能力和服务支持。
vivo AI高级产品经理刘诗云表示,vivo开发者平台新推出了蓝心大模型和AIGC绘画大模型。
平台能力和产品全面升级,帮助开发者高效创新。
其中,蓝心大模型应用广泛,能为学习、阅读、办公创作、生活等场景带来跨越式发展; AI绘画大模型可以帮助开发者高效生产出高品质的设计产品; vivo编码助手具有代码生成、代码纠错等能力,可以帮助开发者提高代码效率和质量。
此外,vivo开发者平台还新增了超清图片、去笔迹、AI变声等云算法能力,以及端侧内容检测、离线翻译等新的端侧技术,进一步打造高画质。
为开发者提供级服务支持。
vivo AI高级产品经理刘诗云携手香港中文大学,共同构建多式联运中国大模型的繁荣。
从技术发展趋势来看,大模型正在向以“大语言模型”为中心的多模态拓展。
香港中文大学电子工程学系副教授李洪生指出,其团队与vivo在多模态领域开展了广泛合作,成功创建并优化了多个具有多模态特征的大型多模态语言模型。
-模态信号理解和推理能力。
还将开展相关多模态模型的研究并开源解决方案,共同推动国内多模态中国大模型的可持续发展。
据李洪生介绍,香港中文大学团队与vivo研究院合作打造了ImageBind-LLM大模型,首次提出了多模态信号理解、推理和回答的统一大模型框架。
针对LLaMA 2在中文场景中表现不佳的问题,香港中文大学团队将vivo自主研发的大模型BlueLM集成到其开发的LLaMA-Adapter多模态大模型中,替代原有的LLaMA 2模型并构建基于BlueLM的强大能力,开发性能行业领先的中国多式联运模型。
李洪生,香港中文大学电子工程学系副教授。
未来,vivo将继续深耕大模型等前沿技术领域,创新应用场景,迭代服务工具,与开发者、合作伙伴一起不断为用户创造惊喜,让AI成为造福社会的力量。