护理机器人:当老人拒绝服药时,我该怎么做?

护理机器人:当老人拒绝服药时,我该怎么做?


生育率的降低和平均寿命的延长让世界的老龄化问题越来越严重。今天,欧洲和北美超过65岁以上的人群已达到1.83亿。美国人口调查委员会估计:到2030年,这个数量将达到2.51亿。因此,老年人护理人员的需求也越来越大。

GG 4

这时候,护理机器人便应运而生了。在将来,这些机器人将会帮助专业护理人员,在家庭或者医院照顾老人。它不仅能够降低雇佣专业护理人员的成本,还能给予老人更多自由。

虽然护理机器人将会给社会带来诸多福利,但数据显示:现阶段人们对于护理机器人的接受程度并不高。欧洲委员会曾进行过一项覆盖27个欧洲国家的调查:超过50%的人想要国家禁止护理机器人,将近90%的人表示如果真的由机器人来照顾他们的老人或孩子,他们会感到不知所措。

那么,我们要如何增加机器人的接受程度呢?首先,当然是要说服人们机器人是安全的。然而,虽然安全甚是重要,但还不够,我们还需要让人们知道机器人能够考虑病人的隐私、自由和社会关系,减轻病人的压力。

很多人在考虑护理机器人的使用时,会将道德评价考虑在内。因此,随着机器人的认知、行动能力的提高,它们需要作出自主的道德评价。研究表明:机器人 的自由程度越高,它们越需要道德标准,特别是在它们接触弱势群体时。换句话说,护理机器人在照顾老人时,需要作出相应的道德评断。

让护理机 器人拥有道德评判标准将会让更多病人和专业护理人员接受它们。研究表明:如果我们对机器人的道德行为缺乏信任和关注,那么我们将不会接受它们。因此,很多 研究团队已经想出了一些办法,来赋予机器人道德准则。现阶段,这方面的研究还处于早期阶段。但是,研究一直在发展,业内人士也预测此领域未来几年将会有巨 大的进步。

GG 5

在确定了机器人道德标准的重要性后,我们就需要选择适用的道德原则。首先,很多专家建议从一些现有的道德原则(比如实用主义和康 德的义务论)选取机器人的道德标准。另外,一些业内人士也认为机器学习技术也适用于护理机器人的道德标准。不过,这两种方法都有自己的限制,并且迄今为止 没有产生令人满意的结果。

而第三种方法则更加实用。我们相信最好的方法来自实践,因此机器人应该直接询问它们的接触者(比如病人、病人亲 属、护理人等),换句话说,机器人应该以用户为导向。这种方法的优势之一就是直接让用户参与机器人的设计。事实上,在很大程度上,现在对于机器人的道德标 准讨论得较多的人群仅限于学术界人员、工程师和法律工作人员。但是说到底,使用机器人的还是用户们,因此我们需要与之有直接接触的人来参与设计。

因此,我们做了一项调查,来了解大众对于机器人道德标准的判断。我们设计了一个情景:

Annie是一位由护理机器人照顾的老人,机器人的任务包括提醒她在特定的时间服药。但是有一天,Annie拒绝服药,这时机器人需要在自己的义务和主人的自由度之间作出道德权衡。

调查中设计了一些问题,答案为一些情景假设,参与者可以根据自己的观点作出选择。如果人们比较偏向某一个答案,那么我们将会以这个作为指导来设计机器人;如果人们的答案比较分散,那么这就表明所谓的道德标准因人而异,这样我们就需要设计定制化的机器人。