导航菜单

研究人类如何建立对具身虚拟代理的信任

具身虚拟代理 (EVA),以图形方式表示 3D 虚拟角色,显示类似人类的行为,可以在各种环境中具有有价值的应用。例如,它们可以用来帮助人们练习语言技能,或者可以作为老年人和有心理或行为障碍的人的伴侣。

德雷塞尔大学和伍斯特理工学院的研究人员最近开展了一项研究,调查信任在人类与 EVA 之间的互动中的影响和重要性。他们的论文发表在 Springer 的International Journal of Social Robotics 上,可以为人类更容易接受和更容易接受的 EVA 的发展提供信息。

“我们的实验是在两个虚拟代理(每个会话一个代理)的帮助下以两个问答环节的形式进行的,”进行这项研究的研究人员之一 Reza Moradinezhad 告诉 TechXplore。

在 Moradinezhad 和他的导师 Erin T. Solovey 博士进行的实验中,向一组参与者展示了两组多项选择题,他们被要求与 EVA 合作回答这些问题。研究人员使用了两个 EVA,分别称为代理 A 和代理 B,参与者为每组问题分配了不同的代理。

实验中使用的代理表现不同;一个是合作的,另一个是不合作的。然而,虽然一些参与者在回答一组问题时与合作代理互动,而在回答另一组问题时与不合作代理互动,但其他参与者在两种情况下都被分配了合作代理或在两种情况下都分配了不合作代理。

“在我们的参与者选择一个答案之前,当他们的光标在每个答案上时,代理人表现出一种特定的面部表情,从大笑和点头表示同意到皱眉和不同意地摇头,”Moradinezhad解释了。“参与者注意到,高度积极的面部表情并不总是正确答案的指标,尤其是在‘不合作’的情况下。”

Moradinezhad 和 Solovey 博士进行的这项研究的主要目的是更好地了解人类对 EVA 产生信任的过程。过去的研究表明,用户对计算机系统的信任会因他们对其他人的信任程度而有所不同。

“例如,对计算机系统的信任通常在一开始就很高,因为它们被视为一种工具,当一个工具出现时,你希望它按照预期的方式工作,但对于信任人类的犹豫程度更高因为存在更多不确定性,”莫拉迪内扎德说。“然而,如果计算机系统出错,它的信任度会迅速下降,因为它被视为缺陷并预计会持续存在。另一方面,如果已经建立了信任,那么在人类的情况下,举几个例子违规行为不会显着损害信任。”

由于 EVA 与人类和传统计算机系统具有相似的特征,因此 Moradinezhad 和 Solovey 博士想了解人类是如何对它们产生信任的。为此,他们密切观察了参与者对 EVA 的信任度是如何随着时间的推移而演变的,从他们参加实验之前到他们完成实验。

“这是使用三个相同的信任调查完成的,要求参与者对两个代理(即代理 A 和 B)进行评级,”Moradinezhad 说。“第一个基线调查是在介绍环节之后,参与者看到界面、代理和面部表情,但没有回答任何问题。第二个是在他们与其中一个合作伙伴回答第一组问题之后代理人。”

在第二次调查中,研究人员还要求参与者评价他们对第二个代理的信任,尽管他们还没有与之互动。这使他们能够在与第一个代理交互之前探索参与者与第一个代理的交互是否影响了他们对第二个代理的信任。

“同样,在第三次信任调查中(在第二组之后,与第二个代理合作),我们也包括了第一个代理,看看参与者与第二个代理的互动是否改变了他们对第一个代理的看法, “莫拉迪内扎德说。“我们还在实验结束时对参与者进行了更开放的采访,让他们有机会分享他们对实验的见解。”

总体而言,研究人员发现,参与者在与合作代理一起回答的一系列问题中表现更好,并表示对这些代理的信任度更高。他们还观察到参与者首先与合作代理交互时参与者的信任如何转变的有趣模式,然后是不合作的代理。

“在‘​​合作-不合作’的情况下,第一个代理是合作的,这意味着它在 80% 的时间内帮助了参与者,”莫兰迪内扎德说。“在第一次会议结束后,参与者对代理人的可信度进行了一项调查,他们对第一个代理人的评价相当低,甚至有时与其他参与者对不合作代理人的评价相当。这与调查结果一致其他研究表明,人类对自动化有很高的期望,甚至 80% 的合作也会被认为是不可信的。”

虽然参与者在第一次问答环节与合作代理合作后对他们的评价很差,但如果他们在第二个环节与不合作的代理合作,他们对这些代理的看法似乎发生了变化。换句话说,体验表现出合作和不合作行为的代理人似乎会引起对合作代理人的更大赞赏。

“在开放式采访中,我们发现参与者希望代理人一直帮助他们,而对于某些问题,当代理人的帮助导致错误答案时,他们认为他们不能信任代理人,”莫兰迪内扎德解释说。“然而,在与第二个代理合作并意识到一个代理可能比第一个代理更糟糕之后,正如其中一位参与者所说,他们‘更喜欢’与第一个代理合作。这表明信任是相对的, 并且让用户了解这些代理的能力和缺点是至关重要的。否则,他们最终可能会完全忽略代理并自己执行任务(就像我们的一名参与者所做的那样,他的表现明显比组中的其他人差)”

研究人员观察到的另一个有趣模式是,当参与者在两个问答环节中与合作代理互动时,他们对第一个代理的评分明显高于第二个。这一发现部分可以用一种称为“首要偏见”的心理过程来解释。

Morandinezhad 说:“首要偏见是一种认知偏见,可以回忆和偏爱系列中最早引入的项目。” “对我们观察的另一个可能的解释可能是,平均而言,参与者在第二组问题上的表现较低,他们可能认为代理在帮助他们方面做得更差。这是一个指标,类似的代理,即使具有完全相同的绩效率,在某些条件下(例如,基于他们出现的顺序或手头任务的难度),在可信度方面也会有不同的看法。”

总体而言,研究结果表明,人类用户对 EVA 的信任是相对的,并且可以根据多种因素发生变化。因此,机器人专家不应假设用户可以准确估计代理的可靠性水平。

“根据我们的发现,我们认为向用户传达代理的局限性很重要,让他们知道他们可以信任多少,”Morandinezhad 说。“此外,我们的研究证明,可以通过用户与另一个代理的交互来校准用户对一个代理的信任。”

未来,Morandinezhad 和 Solovey 博士收集的研究结果可以为社交机器人的实践提供信息,并为开发人类用户认为更可靠的虚拟代理铺平道路。研究人员现在正在进行新的研究,探索人类与 EVA 之间相互作用的其他方面。

Morandinezhad 说:“我们正在构建机器学习算法,可以预测用户是否会为任何给定的问题选择代理建议的答案。” “理想情况下,我们希望开发一种可以实时预测这一点的算法。这将是迈向自适应、具有情感意识的智能代理的第一步,该智能代理可以从用户过去的行为中学习,准确预测他们的下一个行为并校准他们自己的行为。基于用户的行为。”

在他们之前的研究中,研究人员表明,可以使用功能性近红外光谱 (fNIRS),一种非侵入性脑机接口 (BCI) 来测量参与者的注意力水平。其他团队还开发了可以根据 fNIRS 测量的大脑活动提供反馈的代理。在他们未来的工作中,Morandinezhad 和 Solovey 博士计划进一步研究 fNIRS 技术在增强与虚拟代理交互方面的潜力。

“将大脑数据集成到当前系统中不仅可以提供有关用户的额外信息以提高机器学习模型的准确性,还可以帮助代理检测用户注意力和参与度的变化,并据此调整其行为, “莫兰迪内扎德说。“因此,帮助用户做出关键决策的 EVA 将能够根据用户的精神状态调整其建议和帮助的程度。例如,当它检测到每个建议时,它会提出更少的建议,每个建议之间的延迟更长用户处于正常状态,但如果检测到用户有压力或疲倦,则会增加建议的数量和频率。”

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。