Google周三(6/18)宣布,已开始借由搜索实验室(Search Labs)中的AI模式,测试具备语音输入功能的Search Live,它允许Android及iOS平台上的Google程序在搜索时,能够利用语音与系统连续对话,它会秀出逐字稿(Transcript),也会列出参考连接,也可于背景使用。不过,目前仅开放美国市场参与测试。

随着大型语言模型的能力越来越强,科技企业正着手改善人们与AI模型之间的体验,例如Google DeepMind的Astra项目(Project Astra)目标是构建一个可覆盖所有Google产品的AI助理,目前正在开发自然语音的连续互动功能,或是使用各种工具替用户完成任务,或是提供个性化答案等,并将它们应用在Gemini Live、Google搜索或眼镜等新设备上。

Google搜索团队解释,AI模式中的Search Live采用一个具备先进语音能力的定制化Gemini模型,该模型是创建在拥有最佳品质及资讯的搜索系统上,因此不管用户从哪里、用什么方式发问,系统都能提供可靠且有帮助的回答。

此外,Search Live的语音搜索功能还采用了查询扇出(query fan-out)技术,将一个查询同时发送到多个系统、模型或数据源,集成之后再进行回应,以呈现更多样的结果。

于是Google程序用户在搜索中激活Search Live时,得以用语音询问问题,系统也会以语音回应,而且双方可以不间断地回应与互动,用户也可查看对话的逐字稿,或是系统所提供的参考连接,也能进入AI模式的历史记录查询先前的对话内容。

由于Search Live可于后台执行,因此就算屏幕锁住了仍能继续对话,也能在对话时使用其他程序。

目前Google除了开放Gemini聊天机器人之外,在去年10月于全球搜索服务中部署的AI Overviews也已替用户汇集整理合摘录了重要资讯。