麻省理工学院媒体实验室(MIT Media Lab)的研究人员,现在研发出一种个性化的机器学习方式,使用每个孩子独有的数据,可以帮助机器人评估每个孩子在这些互动过程中的参与度和兴趣。这个个性化的“深度学习”网络,使机器人对孩子反应的感知与人类专家的评估结果达到了60%的相同率。
患有自闭症谱系障碍的儿童,往往难以识别周围人的情绪状态。例如,区分快乐的脸和恐惧的脸。为了解决这个问题,一些治疗师使用适合孩子的机器人来演示这些情绪,并让孩子们模仿,然后以适当的方式对机器人演示的情绪做出反应。
然而,如果机器人在治疗过程中,能流畅地解释孩子的行为——无论TA是感兴趣、兴奋还是专心——那么这种疗法效果才是最好的。
麻省理工学院媒体实验室(MIT Media Lab)的研究人员,现在研发出一种个性化的机器学习方式,使用每个孩子独有的数据,可以帮助机器人评估每个孩子在这些互动过程中的参与度和兴趣。
6月27日,科学家们在《科学机器人》杂志上发表报告称,这个个性化的“深度学习”网络,使机器人对孩子反应的感知,与人类专家的评估结果达到了60%的相同率。
对于人类观察者来说,要让孩子的参与意愿和行为达成高度一致是很有挑战性的。普通的机器人(非个性化的)与人类专家的评估结果通常有50%到55%相同。研究的第一作者、媒体实验室的博士后Rudovic和他的同事认为,像他们的研究一样,经过人类观察训练的机器人,总有一天可以和人类专家所提供的评估结果更一致。
“长远的目标不是创造机器人来代替人类治疗师,而是增加他们的关键信息。治疗师可以使用这些信息,来制订个性化治疗内容,也可以让机器人和自闭症儿童之间,产生更具吸引力的、更自然的互动。” Rudovic说。
Rosalind Picard是这篇论文的合著者,同时也是麻省理工学院负责情感计算研究的教授,他说个性化在自闭症治疗中尤其重要。“如果一个人让你想到了自闭症,那么你就是遇到了一个自闭症患者。”
“开发针对自闭症的机器学习和AI(人工智能)应用尤其令人烦恼,因为一般的人工智能方法需要大量的数据,这些数据都是可以归于一类的。而在异质性占主导地位的自闭症中,一般的人工智能方法就会失败,因为数据缺少共性。” Picard说。
Rudovic、Picard和他们的队友,也在其他领域使用了个性化的深度学习,发现它改善了疼痛监测和预测老年痴呆症进展的结果。
NAO(一个类人机器人)
自闭症机器人的辅助疗法通常是这样运作的:一个人类治疗师展示一张纸质儿童照片,或一张电子照片,用来代表不同的情绪,教孩子如何识别恐惧、悲伤或快乐。然后治疗师对机器人进行编程,向孩子们展示同样的情绪,观察孩子与机器人之间的互动。孩子的行为会为机器人提供宝贵的反馈,机器人和治疗师则需要用此反馈,继续学习。
在这项研究中,研究人员使用了软银公司生产的人形机器人NAO。NAO大概有2英尺高,类似于装甲超人型的机器人,通过改变眼睛的颜色、四肢的动作和声音的音调,来传达不同的情绪。
参与这项研究的35名自闭症儿童,年龄从3岁到13岁不等,其中17名来自日本,18名来自塞尔维亚。在35分钟的实验中,他们对机器人的反应各不相同。在测试中,每个孩子的整体表现也不一样。他们有的时候看起来很无聊、昏昏欲睡,有的时候则兴奋地在房间里跳来跳去,拍手、大笑或触摸机器人。
Rudovic表示,在研究中,大多数的孩子对这款机器人的反应是,“它跟其他的机器人不一样,不仅仅是一个玩具,更像一个人,这大概与NAO的外形有关。”
一名4岁的小女孩一开始在参与治疗时躲在妈妈身后,但之后她对机器人的接受程度大大提高,治疗结束后她笑了起来。其中一个塞尔维亚孩子的姐姐拥抱了NAO,说:“机器人,我爱你!”在治疗结束时,她说她很高兴看到弟弟有多喜欢玩这个机器人。
“治疗师说,让孩子接触自己几秒钟,都是一个很大的挑战,而机器人会吸引孩子的注意力。”Rudovic说。
他还解释了为什么机器人在这种类型的治疗中是有用的:“人类用许多不同的方式改变他们的表情,但机器人总是以同样的方式来做,孩子们却不会感觉单调,因为他们是严格按着机器人教的步骤,来学习如何表达自己表情的。”
个性化的机器学习
麻省理工学院的研究小组,意识到一种叫深度学习的机器学习算法,可以用于治疗机器人,使其更自然地感知孩子的行为。深度学习系统使用分层的、多层的数据处理,来改进机器人的任务,每个连续的层都比上一层的原始数据要稍微抽象一些。
Rudovic说,尽管深度学习的概念自20世纪80年代就已经出现,但直到最近,才有足够的计算能力来实现。深度学习已经在自动语音和对象识别程序中得到应用,这使得它非常适合解决这样的问题,比如,理解人脸、身体和声音的多重特征,从而理解更加抽象的概念,比如,应用在这种对儿童自闭症的治疗上。
“举例来说,在面部表情的识别上,最重要的是脸部的哪些部位的变化,决定了儿童的参与程度,”Rudovic说,“深度学习允许机器人直接从数据中提取最重要的信息,而不需要使用经过人类分析处理过的信息。”
对于治疗机器人,Rudovic和他的同事更进一步,建立了一个个性化的框架,可以从收集到的每个孩子的数据中学习。研究人员从孩子手腕上的监视器上,获取了每个孩子的面部表情、头部和身体动作、姿势和手势、音频记录和心率、体温和皮肤出汗反应的数据。
这些机器人的个性化深度学习网络,是由许多元素组成的,包括视频、音频和生理数据、关于孩子自闭症的诊断和个人能力的信息、以及他们的文化背景和性别。
然后,研究人员将他们对孩子行为的估计,与五名人类专家的估计进行了比较。这五名人类专家对孩子的视频和音频录音进行了综合的分析处理,以确定孩子在这段时间里是高兴还是难过,有多感兴趣,有多投入。
对这些由人类编码的个性化数据进行训练,并拿训练或调整模型未使用的数据进行测试,神经网络显著地改进了机器人对儿童行为的自动估计。研究人员发现,个性化的机器学习要好于把所有孩子的数据都“综合在一起”式的应用方法。
Rudovic和他的同事还探究了深度学习网络是如何进行估计的,这揭示了孩子们之间一些有趣的文化差异。Rudovic说:“举例来说,来自日本的儿童在参与活动的时候,会表现出更多的肢体动作,而在塞尔维亚,大的肢体动作则出现在参与活动之后。”
-
机器人
+关注
关注
211文章
28405浏览量
207016 -
人工智能
+关注
关注
1791文章
47244浏览量
238372 -
深度学习
+关注
关注
73文章
5503浏览量
121142
原文标题:MIT:我们用深度学习开发了一个能识别人类情绪的机器人
文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论