导航菜单
首页 » 问答 » 正文

机器人伤人引发的十大人工智能的伦理困境

早在1978年,日本就发生了世界上第一起机器人伤人事件。日本广岛一家工厂的切割机器人在切钢板时突然发生异常,将一名值班工人当钢板操作致死。

1979年,美国密歇根的福特制造厂,有位工人在试图从仓库取回一些零件而被机器人杀死。

1985年前苏联国际象棋冠军古德柯夫同机器人棋手下棋连胜局,机器人突然向金属棋盘释放强大的电流,将这位国际大师杀死。

2015年6月29日,德国汽车制造商大众称,该公司位于德国的一家工厂内,一个机器人杀死了一名外包员工。这位员工在保纳塔尔()的工厂内丧生。

此事件让人们联想到好莱坞大片“终结者、机械公敌’等,未来超级智能体拥有自我保护意识,不断进行自我升级,当自身受到威胁时,威胁致伤屠杀人类。

等等事件,将本来刚出现一点曙光的人工智能机器人技术,推到了注定要被人们直面的伦理困境。

人工智能体,我们这里不叫人工智能机器人,原因是越来越多的人工智能意识可以在很多平台上使用,并不见得只是机器人平台。因此,应该全指称呼为“人工智能体”。

对非人类形式的智能意识是否具有伦理问题的关注,还不是现在才出现的。早在中世纪,著名哲学家笛卡尔就远见卓越地指出了机器人伦理问题。

自动化机器人出现,人们对机器人伦理问题的研究也有了很大的进步。由美国哲学家科林艾伦等出版了《道德机器:培养机器人的是非观》。同时,也出现了一些与机器人伦理研究相关的组织。2005年,欧洲机器人研究网络设立“机器人伦理学研究室”,它的目标是拟定“机器人伦理学路线图”。它主要是为机器人的研究开发供一种参考性的发展进路,韩国,在2007年通过立法出台了规范机器人伦理的“机器人宪章”。日本千叶大学在当年也制定了关于智能机器人研究的伦理规定——“千叶大学机器人宪章”。

现在人们对人工智能体伦理问题关注的重点集中在:

1、人工智能体是否能够具有道德?

2、人类是否允许人工智能体具有道德?

3、人工智能体伦理与人类伦理是否具有一致性?

4、在人工智能体具有道德的情况下它的权利与义务关系如何体现?

5、人工智能体的伦理特征是什么?

6、人工智能体的伦理实现路径是什么?

7、从文化或宗教的角度如何去解析人工智能体伦理的问题?

8、人工智能体伦理的实现是否需要社会监督和法律保障?

9、人工智能体伦理问题是人工智能体的伦理问题还是人工智能体设计者、生产者和使用者的伦理问题呢?

10、人工智能体具有伦理是否是社会和科技发展的必然趋势?

总之,这十大问题是当前人工智能伦理急需要解决的问题。这些问题非常复杂,需要长期的社会实践和社会努力来共同解决。问题靶向已经明确,最好的答案来自时间与实践。

人工智能体到底有没有“意识性”,进而是否具有道德?

学术界上的一个绝对真理就是:在讨论任何问题时,一定有两派的决然对立。

一派认为有意识,有道德。另一派认为没有意识和道德。

以美国卡内基梅隆大学的一部分科学家一直想从生物学的角度去探寻解决之道,通过生物技术来研究大脑对意识形成的作用。也有一部分科学家试图从计算的领域和人工智能角度去研究意识,也就是意识的计算机化。

1975年卡内基梅隆大学的研究人员进一步设想,“人工智能的行为可能就是通过把心智转换成程序,进而输入电脑而完成的一系列操作。”也就说,如果心智是可以运算的,大脑就是人运算的基础。

这一派的观点还认为:今天电脑中的数字运算的容量序列仍然低于人类大脑神经元中结点的数。但是随着碳纳米管注定要替代硅晶体管,碳纳米管将计算机的运算线路扩展到三个维度。

这样大概到2029年,人工智能体的意识算力容量就要幵始超越人类大脑智能的总和。

美国哲学教授John 支持这样一种强大的人工智能意识算力的观点,他们认为一台合乎逻辑的编程好的电脑具有意识。

著名“中文房间”的实验思想使一些哲学家表现出这样一种态度,那就是对于电脑的程序编辑于智能系统的发展是没有帮助的。

对立派的观点则认为,计算机和人工智能是不可能自己进化出意识和道德的。

评论(0)

二维码