谷歌语音助手将升级,大模型让其变得更聪明 | 最前线

作者 | 虞景霖

编辑 | 邓咏仪

北京时间8月1日,据Axios获得的谷歌内部备忘录显示,谷歌计划将最新的大语言模型(LLM)技术引入Google Assistant,提高其内容生成能力,该技术类似于ChatGPT和谷歌自研的Bard聊天机器人。

大模型热潮来临后,巨头们都正在用大模型将自家产品一个个“升级”。比如微软与OpenAI建立合作后,将生成式AI助手就嵌入到Edge浏览器、Microsoft Office和Azure云服务中,让服务变得更加智能

Goggle Assistant的升级同样体现了这一点。

Google Assistant是谷歌开发的语音助手,相当于亚马逊的Alexa和苹果的Siri。用户只需说出唤醒词“OK Google”或者“Hey Google”,Google Assistant就会执行用户在这之后发出的语音命令,例如暂停视频、指定任务或者接听电话。

Axio的备忘录并没有详细说明Assistant将要增加哪些具体功能,但大概率将具有和Bard类似的AI聊天功能——Bard是谷歌基于PaLM 2之上建立的对话式AI模型。

新的Google Assistant或将采用LaMDA来生成逻辑通畅、文本自然的对话语言,从网络上收集信息后回答用户问题。

而引入大模型之后的Google Assistant,也会更加“聪明”。以前,Google Assistant、Siri、Alexa一类的语音助手,常被视作“假AI”——因为它们只能支持简单的用户交互,例如回答“明天天气如何?”一类的简单问题,或者提供围绕问题搜集到的信息,供用户参考,还经常答非所问。

将Bard和Google Assistant结合,是一项互补的操作。Bard能根据从网络上搜索到的信息回答问题,但无法单独执行用户指令,和Google Assistant结合后,依附一定的载体,就能实际执行播放音乐或设置闹钟等服务,这将大大增强Assistant回答、解决用户问题的能力。

随着Google Assistant的升级,谷歌内部团队也将进行重组,部分原Google Assistant团队成员将面临解雇。

谷歌对Google Assistant的改造早有预兆。2023年5月,谷歌的人工智能团队发布了一份题为 “利用 LLMs 在移动设备上实现对话式交互 ”的报告,涉及移动用户界面的大语言模型应用测试。

报告提到,将大预言模型和GUI(Graphical User Interface,即图形用户界面,用图形方式显示的计算机操作用户界面)进行整合,包括了总结屏幕内容、根据显示的内容回答问题、将指令映射到用户操作界面等四大功能。

其中,最受关注的一个功能是“将指令映射到用户操作界面”——本质上,这相当于是利用指令(语音或文本)控制来用户的终端设备。例如,通过指令打开手机应用程序、调整手机蜂窝网络模式等。

如今,谷歌也正是计划从移动端着手推进强化Assistant计划。安卓端的Google Assistant已经具备了由AI驱动的功能,能够帮助用户总结网页内容。

移动端的改造只是开始,可以预见,Google Assistant升级后,起调整影响范围比想象中的要广得多,因为Google Assistant已经作为AI助手嵌入到了Google各类产品之中——比如智能音箱和智能显示器。

“每月有数亿人使用Assistant,我们致力于为他们提供高质量的体验,”谷歌发言人Jennifer Rodstrom在给 The Verge 的一份声明中表示,“我们很高兴能探索大语言模型如何帮助我们强化Assistant,让它变得更好。”

本站内容及图片来自网络,版权归原作者所有,内容仅供读者参考,不承担相关法律责任,如有侵犯请联系我们609448834

(0)
酷族派酷族派
上一篇 2023年8月24日
下一篇 2023年8月24日

相关推荐