苹果今天在公司机器学习部落格发表一篇新文章,详细介绍了硬件、软件和网络服务如何结合,在最新 iPhone 和 iPad Pro 达到“嘿,Siri”功能。
苹果在运动辅助处理器整合了非常小的语音辨识装置,这个装置一直保持执行,并等待用户说出“嘿,Siri”。当辨识出这两个单词后,Siri 会将后面的语音处理为指令或查询。语音辨识侦测装置采用深度神经网络将用户语音指令转换为概略分散,并使用时间整合计算“嘿,Siri”的信度分数。
如果分数够高,Siri 就会被触发,并开始处理用户的指令或查询。如果分数超过最低阀值,但没有达到触发阀值,装置会在几秒钟进入“敏感型态”,这样当用户再次重复“嘿,Siri”时更可触发。敏感型态的加入大大改善了系统的可用性,同时还能避免陌生人误开“嘿,Siri”。
为了减少预设是意外触发“嘿,Siri”,苹果邀请用户起始化“嘿,Siri”时,需要用户连续说 5 次这两个单词。在使用过程中,苹果会记录不同环境远近触发“嘿,Siri”的情况,比如在厨房、车上、卧室及参观时等。想了解更详细的“嘿,Siri”,可参考苹果原文。
(本文由 MacX 授权转载;首图来源:影片截图)