AI大模型之花,绽放在鸿蒙沃土
随着生成式AI日益火爆,大语言模型能力引发了越来越多对于智慧语音助手的期待。
我们相信,AI大模型能力加持下的智慧语音助手一定会很快落地,这个预判不仅来自对AI大模型的观察,更来自对鸿蒙的了解。鸿蒙一定会很快升级大模型能力,放眼业界似乎也只有鸿蒙能够在短期实现这一点。
(相关资料图)
之所以这样说,是因为让大语言模型融入终端生态不仅是个算法问题,更需要让AI模型能够了解、指挥、交互操作系统生态中的海量能力。这不是短期内能够做到的,而是需要从操作系统与基础软件层面,不断去发展AI,适应AI,最终让大语言模型、生成式AI代表的新AI能力,水到渠成、瓜熟蒂落般成为用户体验的一部分。
而华为恰恰是最早将AI能力带到手机中的厂商,鸿蒙系统从最初就基于智能技术来打造和演进。可以说,AI就是鸿蒙最浓墨重彩的基因之一。这种基因会不断生长,满足更多用户对智能体验的想象和期待。
8月2日,华为常务董事、终端BG CEO余承东在微博分享了一个视频。内容是向用户“剧透”了HarmonyOS操作系统的一项重磅功能:让小艺来帮助用户生成内容。
从微博中展示的小艺新能力来看,其已经具备了AI大模型与生成式AI的典型特征,创作的一则HDC邀请文辞恰当、逻辑通顺,且能够准确描绘出关键词。
这也意味着,即将到来的鸿蒙4,极有可能带来业内首个植入系统的AI大模型语音助手。
这似乎是一段《红楼》里的木石前盟,无更无改,注定发生。鸿蒙与AI,就花开在这个夏天。
AI基因
鸿蒙一以贯之
早在2017年,华为就在手机端发力AI能力。此后多年当中,AI摄影、AI智慧助手等大量AI能力逐渐成为了华为的招牌。而很多朋友没有注意到的是,今天广为人知的鸿蒙特性,也是建立在AI技术底座上的。
软件解耦、新一代物联网技术与AI,让鸿蒙从诞生之初就具备了更加智能的多终端协同体验。它通过软总线、分布式技术,将多个物理上相互隔离的设备融合成一个“超级终端”。而“超级终端”想要发挥作用,首先要解决两个问题:一是操作系统需要理解用户所在场景,二是用户可以灵巧、便捷地完成多终端操作。这两个目标,都需要大量依靠AI技术来实现。
在2019年正式发布的HarmonyOS系统中,就可以看到随处可见的AI算法与AI体验。
随后,在鸿蒙的高速进化中,智能化能力也随之演进。2021年6月,华为正式发布HarmonyOS 2,带来了统一控制中心、超级终端、万能卡片全新体验,大量用户开始了解、习惯全新的鸿蒙特性。
2022年7月,HarmonyOS 3开启升级,带来了包括超级终端、万能卡片、流畅性能、隐私安全等特性在内的六大升级,智能化体验也得到了进一步提升。
提起鸿蒙生态中的AI能力,就不得不提到小艺。为了管理海量设备与服务,语音助手的中枢作用必不可少。因此,小艺基于其AI能力,就成为了鸿蒙生态所有设备的统一入口、服务精准推荐的统一助手。同时,通过AI弹性部署、优选触点、协同服务等技术,小艺也在不断提升自身的智能化体验。
由此可见,鸿蒙生态不是突然要发力AI,而是鸿蒙就发端于AI,成长于AI,并成为AI技术持续演进的沃土。深种在鸿蒙土壤中的AI灵根,在等它的花信年华。
大模型与小艺
水到渠成的缘分
在今天,智能语音助手已经无处不在,但它的体验却依旧有很多问题。比如说:
1.AI对话依旧不流畅,尤其是多轮对话、中长期记忆对话体验不佳,从而导致用户缺乏持续打开语音助手,提出复杂需求的意愿,久而久之降低了语音助手的使用价值。
2.语音助手的自然语言理解能力不强,逻辑推理能力不足。产生了用户必须用严格的词汇和读音才能准确进行语音交互,日常化、口语化的对话大量无法识别。这一点对于老人、孩子以及不了解AI语音交互的用户来说非常不友好。
3.语音助手仅够唤起服务,不能够生成内容。这就导致语音助手能够带给用户的价值极大降低,难以培养用户持续的语音交互习惯。
不难发现,大语言模型与生成式AI的能力,恰好可以填补语音助手的这些缺憾。但在此前,大模型的开发者普遍集中于AI厂商,距离消费终端的应用场景与软硬件体系距离较远。
如何才能弥补这个距离呢?答案是需要一个水到渠成,瓜熟蒂落的过程。
大模型走向终端场景,首先需要算法本身的能力。这方面,华为已经有了足够的积累。7月6日,来自华为云的盘古气象(Pangu-Weather)大模型登上《Nature》正刊。这项研究成功解决了现有AI气象预报无法处理不均匀的 3D 气象数据等关键问题,让其成为了首个精度超过传统数值预报方法的 AI 方法,并且预测速度提升了超过10000 倍,可秒级完成对全球气象的预测。
在多年的积累下,盘古系列大模型已经在多个领域走到了全球前列。加上华为在AI开发平台、AI开发框架领域的积累,都让大模型与鸿蒙结合变得更加顺利、周全。
而在终端侧,华为对AI技术进行了丰富的探索。比如说,我们此前已经看到了小艺的智慧搜图功能。这一功能就结合AI多模态能力,通过对泛化语义的理解搭配模型小型化处理技术,率先在业界实现了手机自然语言搜图。
从模型到工具,从软件能力到开发者生态,鸿蒙都做好了准备,迎接AI大模型的到来。浪漫一点说,鸿蒙多年的AI耕作,可能就是在等待这个夏天。
鸿蒙4的AI约定
就在这天花开
大语言模型、对话式AI的可能性,就应该在终端语音助手的角色上绽放出来,而其花开处,可能只会在鸿蒙的花园里。
从推测角度来看,鸿蒙4中我们可能就会看到深度融合了大语言模型的小艺。虽然我们现在对其具体能力还不得而知,但结合大模型的能力以及鸿蒙过往的表现,还是可以预判一下接下来会发生什么。
在这里,我们不妨一起来进行些畅想:
1.像和真人对话一样与小艺交流。
大模型带来的强泛化,强鲁棒特性,极大增强了AI的自然语言处理能力。说白了,就是让AI可以更好理解语言,无论是谐音、比喻、指代都不成问题。这样的能力毫无疑问将是接下来鸿蒙4的升级重点。我们接下来将会像和真人一样与小艺交流,甚至忽略它语音助手的真实身份。
2.看到,听到,也能服务到。
基于小艺来唤醒服务闭环,是鸿蒙系统的一大特性。那么基于大模型带来的多模态理解能力,有理由相信接下来小艺会加强服务的触达能力。让小艺听和看,都将成为鸿蒙4的服务入口。
3.把简单留给自己,把复杂留给小艺。
在大语音模型刚刚兴起的时候,很多人都愿意故意说一大段话,让AI去逐层理解分析其中的意思。如果说在当时这只是游戏,那么在鸿蒙4中大模型的逻辑推理就会变成能力,更多更复杂的任务,将会由小艺在鸿蒙的世界中来执行。
4.不仅是找东西,更会创造东西。
长久以来,语音助手扮演的角色都是寻找服务和信息的入口。但在大模型时代,语音助手可以不止找到,而是去生成和创造。接下来,或许我们将依靠小艺来完成办公、生活、学习中的各种任务,帮我们创造各种内容。
不妨带着这些畅想,一起去看看其中有几个能够在鸿蒙4当中实现。鸿蒙与AI,这段木石盟注定要在这个夏天花开结果。
答案,就藏在接下来的HDC当中。当然,鸿蒙与AI的更多情缘还藏在未来,藏在万千开发者的脑洞中,藏在无数用户的期待里。
标签: