麻省理工学院技术评论报告说,苹果研究人员正在调查旨在通过人工智能与iPhone等设备进行用户对话的尖端技术,从而消除了对“ Siri”等技术触发短语的需求。
在这项研究中,它已上传到ARXIV,而不是同行评审。 研究人员使用智能手机和背景噪声声信息捕获的音频数据训练了大语言模型。 该模型的目的是确定可能表明用户需要设备帮助的情况或模式。
本文指出,该模型的一部分是基于OpenAI的GPT – 2,这是一种轻巧的结构,可以在智能手机等设备上有效运行。 本文还涵盖了超过129个小时的数据,用于训练模型的其他文本数据,但没有指定培训集的记录来源。 根据他们的LinkedIn个人资料,七位作者中有六名将其隶属关系列为Apple,其中三名为Apple Siri团队工作。
本文的结论非常令人兴奋,指出该混合模型比纯粹的音频或文本模型可以做出更准确的预测,并且随着模型量表的增加,其性能进一步提高。 这意味着未来的Siri可能对用户的意图有更准确的了解,而不会用固定的早晨词触发他们。
当前,Siri的功能是通过保留少量音频来实现的,并且不会开始录制用户提示或准备做出响应,直到您听到诸如“嘿,Siri”之类的触发短语。
但是,这项创新也引起了隐私和数据安全问题。 斯坦福人人工智能研究所的一名隐私和数据政策研究员Jan Jin说,删除诸如“嘿,Siri”之类的触发短语可以使人们更加担心该设备是否总是在聆听。
评论前必须登录!
注册