机器人伦理标准面试,我们应当提防机器人么? - 智能机器人 - 产品分类 -AGV产业联盟官方网站 -新战略机器人网-工业、服务、AGV机器人产业资讯传播者
您所在的位置:首页 >> 智能机器人 >>正文
分享34K

机器人伦理标准面试,我们应当提防机器人么?

发布时间: 2016-09-26 09:09:02 来源:

核心提示: 1942年科幻作家阿西莫夫提出著名的机器人三定律,来保证机器人友善待人。在人工智能渐行渐近的今天,简单的定律可能无法满足需求了。据卫报报道,最近,英国标准协会(British Standards Institute,简称BSI)发布了一套机器人伦理指南,对机器人制造中可能存在的伦理道德问题作了讨论。

自从机器人诞生以来,其发展一直都备受关注,尤其是如今机器人越来越智能,随之而来的道德伦理问题也逐渐凸显。而就在近日,英国标准协会正式发布了一套机器人伦理指南,用来指导机器人设计研究者和制造商,对机器人做出道德风险评估。这意味着未来机器人应该跟人一样,要受到道德伦理的约束。


    这份指南的名称叫《机器人和机器系统的伦理设计和应用指南》,读起来像是一本健康安全手册,但它强调的“不良行为”简直就像是从科幻小说里摘录出来的。这个标准的文件代号为 BS8611,发布于 9 月 15 日英国牛津郡的 “社会机器人和 AI ”(Social Robotics and AI)大会上。西英格兰大学机器人教授 Alan Winfield 表示,这是业界第一个关于机器人伦理设计的公开标准。

指南指出,机器人欺诈问题、机器人成瘾现象,以及自学习系统越俎代庖的行为,这些都是机器人制造商应该考虑的问题。

机器人将受道德约束,用户体验受影响

机器人要融入社会中,就应该遵从人类社会的道德规范。因为机器人如今生存在人类社会中,并且具有自由行动的能力,是属于一个单独的个体。不过如此一来,用户对于机器人的态度多少会有变化,不再认为机器人就是单纯的机器。就好比说小孩子和这种拥有自主学习表达能力的机器人互动,很容易产生感情联系。但机器人只是机器,这种情感联系未必就符合道德伦理。

此外,就是机器人受到道德规范约束后,部分有违伦理道德的功能不会开发出来,比如陪睡等容易使人过分依赖的功能。这对于用户体验来说会有些影响,但是问题并不大。

最重要的是这些制约能有效确保机器人的安全性,通过程序写入,规定哪些事情禁止操作。比如禁止攻击人身安全,可以避免机器人成为伤害他人的工具。

机器是机器,人与机器两者要分清

虽然伦理标准的出现使得机器人在功能开发方面有些影响,但不得不说,机器人在加入深度学习功能之后改变很大,完全有能力跟普通人交流,推出道德标准也是正常的。但是如此一来,是否意味着人们已经将机器人拉到了跟人类同一高度,所以需要道德规范来约束。在不知不觉间,机器人似乎已经拥有部分人类应有的道德伦理,这对于一台机器人来说是有些让人惊讶的。

然而机器人对于人类来说终究只是工具而已,道德约束虽然有必要,但是不应该将其等同于人类。照这种趋势发展下去,谁也不能保证未来会由专门针对机器人行为的法律法规,这样一来,机器人除了身体构造,其他方面似乎并没有跟人类有多大差别。

虽然机器人的诞生给人类带来诸多方便,并且越来越智能化,大众也乐于接受这种新生事物,但是对于机器人应该保持一种泾渭分明的态度,毕竟机器是机器,人是人。



【免责声明】所刊原创内容之本文仅代表作者本人观点,与新战略机器人网无关。新战略机器人网站对文中陈述、观点判断保持中立。本网转载自其它媒体的信息,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。

【版权声明】凡本网注明“来源:xzl机器人”的所有作品,著作权属于新战略机器人网站所有,未经本站之同意或授权,任何人不得以任何形式重制、转载、散布、引用、变更、播送或出版该内容之全部或局部,亦不得有其他任何违反本站著作权之行为。违反上述声明者,本网将追究其相关法律责任。转载、散布、引用须注明原文来源。

分享到:

关闭对联广告
顶部微信二维码微博二维码
底部
扫描微信二维码关注我为好友
扫描微博二维码关注我为好友