Siri 对苹果的未来非常的重要,众多的科技公司都希望在机器学习和人工智能AI领域有所作为。今天,苹果在公司的机器学习博客上发布了一篇新文章,文章详细介绍了硬件、软件和互联网服务如何结合在一起和如何在最新的 iPhone 和 iPad Pro 上实现“Hey Siri”功能。其实一句简单的“Hey Siri”,背后隐藏了非常多的努力与小心思。
苹果会在处理器中集成了非常小的语音识别装置,这个装置会一直保持运行,同时它也在等待用户说出“Hey Siri”。当识别到这两个单词后,Siri 就会将后面的语音处理为命令或查询。而语音识别检测装置采用了深度神经网络,将用户语音命令转换为概略分布,并使用时间集成来计算“Hey Siri”的信度分数。
如果这个信度分数足够高,Siri 就会被激活,它将开始处理用户的命令或查询。如果分数超过了最低阀值,但没有达到激活的阀值,设备会在几秒钟进入“敏感模式”,这时候如果用户再次重复“Hey Siri”的时候,它同样可能更好的被激活。有了敏感模式,这其实也大大改善了系统的可用性,同时还能避免陌生人在“Hey Siri”的时候,误触它。不得不说这样的设置是非常人性化的。
为了减少或者说意外激活 Siri ,苹果在邀请用户进行初始化“Hey Siri”的时候,还会要我们连续说五次这个两个单词。而且在使用过程中,苹果会记录不同环境中远近激活“Hey Siri”的情况,比如在厨房里、车里、卧室里等等。
其实 Siri 诞生以来,每一次随着苹果系统的更新,Siri 同样也会获得更多的进步。就像这一次随着 iOS 11 系统的到来,我们也看到 Siri 获得了不少的改进。比如说获得了短语翻译的功能、可以化身成为个人DJ 、用户界面的改进等等,可以说这一次它的改进是全面性的。
当然了,如果你想详细了解更多关于苹果在 Siri 身上所做的努力,你可以点击这里,前往苹果的机器学习博客,对其进行更深入的了解。一句简单的“Hey Siri”,其实一点都不简单。
评论