【小哈划重点:科幻作家艾萨克·阿西莫夫曾提出了机器人的3条准则,保证机器人能够友善对待人类,避免人类遭受“机器人末日”。这些准则包括:一是机器人不能伤害人类,或者无所作为而导致人类受到伤害;二是机器人必须听从命令,除非这些命令违背第一条准则;三是机器人必须要保护自己,但是相关的保护行为不能与第一、第二条准则相违背。】
北京时间7月22日消息,据国外媒体报道,想象一下这样的世界,它们像我们人类一样,有思想、触觉、自我意识和执行任务的能力,但是它们却从根本上不同于人类,它们是人类的作品,是人类创造的,其机械身体有启动和关闭的开关装置。
当我们将机器人作为日常生活的一部分来对待,或者说将它们视为人类一样,这个崭新的世界将产生许多问题,我们如何应对它们呢?我们对机器人有道德责任吗?这些非人类拥有道德权利吗?或者我们有责任培养它们?
具有思维辨析能力,思考理性和感性问题的机器人,会让人们认为非常有趣。但是有两个常见的论点可能表明,以上并没有实际意义,因为伦理问题都不需要认真对待。
首先,像这样的“人造人”是不可能存在的;其次,这也是堕胎辩论中时常提及的,只有拥有可以独立生存的人,才能得到应有的道德尊重,并从伦理道德角度予以考虑,当然,这样的辩论富有争议。
早在1942年的科幻短篇小说中,美国著名科幻作家艾萨克·阿西莫夫曾提出了机器人的3条准则,保证机器人能够友善对待人类,避免人类遭受“机器人末日”。这些准则包括:一是机器人不能伤害人类,或者无所作为而导致人类受到伤害;二是机器人必须听从命令,除非这些命令违背第一条准则;三是机器人必须要保护自己,但是相关的保护行为不能与第一、第二条准则相违背。
思想、物质和衍生性质
我们可能会认为,精神现象——意识、思想、情感等,在某种程度上不同于构成计算机和其他人类制造的机器物质,我们可能认为机器人“大脑”与人类意识思想存在本质差别,但是,不管这些假设是否正确,并不意味着有知觉、有意识的“人造人”是不可能存在的。
我们应当警惕社会科学中过于简单化的观点,一些社会现象,例如:语言,如果没有具有其特殊心理和生物学特征的个体之间相互作用,是不可能存在的,但这并不意味着由此产生的社会现象,或者“衍生性质”,可以完全正确地仅从这些特征进行解释。
关于衍生性质的可能性观点同样适用于所有科学研究,例如:如果没有构成电脑的塑料、电线、硅芯片等组件,就不可能有当前我工作的电脑,然而,计算机的操作不能仅用这些单独组件的特性进行解释,一旦这些组件以特定的方式与电流结合在一起,将形成新的系统——电脑,当电脑以一种特定方式结合和交互,互联网就诞生了,但是很明显,互联网是不同于实体、物理电脑的一种形式。
同样地,我们也不需要“大脑复制品”,不需要简化的大脑、分子、原子和其他大脑运行所需的物理元素,它们可能是不同类型的实体,源自于它们之间特定交互和组合。
关于人类拥有的意识思维、思考和做决定的能力,为什么没有出现在人类制造的机器系统中,两者并没有明显的逻辑关系,这在物理层面上是否可能发生,亟待更深入研究讨论。
机器人需要我们同情和关爱吗?
我们不应该诽谤死者或者肆意破坏地球,使后代无法享受到我们的绿色地球,这是毋庸置疑的事情,但是人类制造的智能机器人,视为人类道德责任的潜在对象和人类仁爱关心的潜在接受者。应当受到道德尊重和关爱体谅吗?
无论是死者还是尚未出生者,都没有可存活的身体,以拥有人造而非自然身体为理由,对具有思维意识的机器人拒绝给予道德上的尊重,似乎是一种武断行为。
也许有一天,也许比我们预想得更早,对于理性思维、拥有知觉的机器人在伦理方面的思考和认知,可能会被证实不仅仅是一个抽象的学术活动。