普渡大学研究小组正在探索机器人如何赢得人类

普渡大学研究小组正在探索机器人如何赢得人类

时间:2020-01-10 08:36 作者:admin 点击:
阅读模式

信任是人类社交关系的一种状态,也是一种依赖关系。相互依赖表示双方之间存在着交换关系,无论交换内容为何,都表示双方至少有某种程度的利害相关,己方利益必须靠对方才能实现。

因为信任,家人亲人互相倾诉心声秘密,因为信任,客户把这个项目交由乙方全权负责……社会因为信任作为纽带,可以正常运作。

那如何获得信任,影响信任的因素有哪些?

哈丁(Hardin)于2002年指出信任过程是受到信任者本身与被信任者特点以及二者之间关系的影响和制约。因此,将人际信任的影响因素划分为信任个体、关系属性、情境因素三个方面。

当下已是个弱人工智时代,智能系统在人类的日常生活中变得越来越普遍,智能家居、智能语音助手、机械臂、医疗机器人等等。区别于其他设备,这些智能系统要求人类与机器人交互,因此信任成为协同互动的重要因素。

那机器人如何赢得人类的信任?

普渡大学机械工程学院的助理教授Neera Jain和副教授Tahira Reid正在研究设计能够改变其行为的智能机器,以增强人们对它们的信任。

研究人员开发了两种“基于分类器的经验信任传感器模型”,这是改善人类与智能机器之间信任的一步。

这些模型使用两种技术来提供数据来衡量信任:脑电图和皮肤电反应。第一个记录脑波模式,第二个监测皮肤电特性的变化,提供与信任相关的心理生理学“特征集”。45名人类受试者戴上无线EEG耳机并一方面佩戴设备以测量皮肤电反应。

在“一般信任传感器模型”里,为所有45名参与者使用相同的心理生理学特征。另一个模型是针对每个人类主题定制的,从而提高了平均准确度,但代价是增加了训练时间。这两个模型的平均准确度分别为71.22%和78.55%。

使用反馈控制原则来设计能够实时响应人类信任级别变化的机器,以建立和管理人机关系中的信任,需要一个传感器来实时估计人类信任水平。

里德表示“在某种情况下,人类可能无法理解正在发生的事情,因此他们不相信系统做正确的事情,所以即使他们真的不应该,他们也会收回控制权。例如在飞行员超越自动驾驶仪的情况下,收回控制可能实际上阻碍飞机的安全操作,从而导致事故。

在测试中,581名在线参与者被要求进行驾驶模拟,其中计算机识别出道路障碍。在某些情况下,计算机在100%的时间内正确识别出障碍物,而在其他情况下,计算机在50%的时间内错误地识别出障碍物。

该测试使研究人员能够识别与智能系统中人类信任相关的心理生理特征,并相应地建立信任传感器模型。假设信任水平在可靠的试验中很高,在错误的试验中较低,使用从581名在线参与者收集的答复来验证这一假设,结果验证了该方法有效地引起了智能机器的信任和不信任。

为了实时估计信任度,需要能够不断提取和评估关键的心理生理测量,EEG耳机通过九个通道记录信号,每个通道拾取大脑的不同部分。

人类信任有3个维度:认知倾向性,情绪情境性和行为学习性。

倾向性信任指的是信任的组成部分,其依赖于诸如性别和文化之类的人口统计,其具有潜在的偏见。例如,女性对男性的信任度不同,而且信任也可能受到年龄和国籍差异的影响。

情绪情境信任可能受到任务风险或难度的影响,而行为学习则基于人类过去对自治系统的体验。

研究小组根据这个设计了算法模型分类,评估被测人员的心理生理状态。