千名科技精英签署公开信 呼吁禁止研发人工智能武器 - 大家谈 - 视频播报 -AGV产业联盟官方网站 -新战略机器人网-工业、服务、AGV机器人产业资讯传播者
您所在的位置:首页 >> 大家谈 >>正文
分享34K

千名科技精英签署公开信 呼吁禁止研发人工智能武器

发布时间: 8/31/2015 09:07:53 来源:新战略机器人网

核心提示: 这种说法其实并不合理,至少在短期内不合理。但是,人工智能武器所蕴含的危险,也确实不是那种常规的、由人类操控的武器可以比拟的。因此要求禁止人工智能武器的呼吁,也理应获得大家的声援。

最近一段时间,很多知名人士都对人工智能武器表示了抵制,但他们给出的原因却比较偏颇,认为机器人有朝一日将会控制人类。这种说法其实并不合理,至少在短期内不合理。但是,人工智能武器所蕴含的危险,也确实不是那种常规的、由人类操控的武器可以比拟的。因此要求禁止人工智能武器的呼吁,也理应获得大家的声援。

斯蒂芬·霍金、宇宙学家马克斯·特格马克以及伊隆·马斯克和其他很多人都签署了“未来生活”(FutureofLife)请愿书,要求禁止制造使用人工智能武器。今年1月,马斯克捐款1000万美元给发起该请愿的机构。4月份,联合国召开了“杀手机器人”会议,不过没有产生任何具有持久性的政策决定。“未来生活”请愿信指出,人工智能武器的危险非常具体,不出几年就有可能导致灾难,需要马上采取行动来加以避免。可惜的是,它并没有明确指出,有哪些人工智能武器已经出现在了地平线上。物理学家、皇家天文学家马丁·里斯爵士就警告说,灾难性的场景,比如“愚蠢的机器人不按指令行事,或一个网络自己有了主见。”他在剑桥的同事、哲学家休·普莱斯也表达了类似的担忧,觉得当智能“不受生物学限制”时,人类可能无法生存。在两人的推动下,剑桥大学组建了生存风险中心(Centreforthe Studyof Existential Risk),以图避免人类的生存遭受如此巨大的威胁。

1925年签订的国际条约禁止在战争中使用化学武器和生物武器。而中空弹(Hollow Point Bullet)早在1899年就被禁用,因为这些武器会导致极大的、不必要的痛苦。它们特别容易导致平民伤亡。比如公众可能会吸入毒气,医生在尝试取出中空弹时可能会受伤。这些武器很容易给无辜者造成痛苦和死亡,所以它们遭到了禁用。

是否有某种类型的人工智能机器同样也应该被禁用呢?答案是肯定的。如果一种人工智能机器可以很便宜、很容易地改造成高效的无差别大杀器,那么我们就应该制定禁止它的国际公约。这样的机器与放射性金属在本质上没有什么不同。它们都可以和平利用,造福人类。但是我们必须小心翼翼地对它们加以管控,因为它们很容易被改造成毁灭性武器。不同的是,对人工智能机器进行改造,将其用于破坏性目的,远比把核电站的反应堆改成核武容易得多。

我们应该禁止人工智能武器,这不是因为它们全都具有不道德的属性,而是因为人们可以利用在网上找到的资料,把人工智能武器改装成“狰狞的嗜血怪物”。只需一段简单的代码,就可以把很多人工智能武器转变成不亚于化学武器、生物武器和空心弹的杀人机器。很多人担心会出现“终结者”那样的世界末日场景:机器人具有了像人类一样的能力,能够完全依靠自己与世界交互,而且这些机器人试图征服世界。

【免责声明】所刊原创内容之本文仅代表作者本人观点,与新战略机器人网无关。新战略机器人网站对文中陈述、观点判断保持中立。本网转载自其它媒体的信息,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。

【版权声明】凡本网注明“来源:xzl机器人”的所有作品,著作权属于新战略机器人网站所有,未经本站之同意或授权,任何人不得以任何形式重制、转载、散布、引用、变更、播送或出版该内容之全部或局部,亦不得有其他任何违反本站著作权之行为。违反上述声明者,本网将追究其相关法律责任。转载、散布、引用须注明原文来源。

分享到:
关闭对联广告
顶部微信二维码微博二维码
底部
扫描微信二维码关注我为好友
扫描微博二维码关注我为好友