人工智能:“勿以恶小而为之”(江晓原)
[2015-08-27 15:43:05]

    江晓原博客链接http://blog.sina.com.cn/jiangxiaoyuan

   (载《新发现》2015年第8期)

 

    对机器杀人事件的不同反应

  进入2015年,关于人工智能和机器人的报导和讨论空前密集,有人甚至已将2015年视为“智能机器人从虚拟走向现实的元年”,许多人相信,我们已经处在人工智能大突破的前夜。在这样的背景下,最近德国大众工厂一位员工被机器人杀害的事件,当然成为媒体热议的题目。工厂当局表示,这只是因为“人工操作失误”造成的生产事故,但人们显然也可以从这起偶发事故中引出更为深入的担忧和思考。
  科幻作品中当然早就讨论过机器人反叛的问题,想象过人类被统治、被奴役甚至被灭绝的前景。不过平心而论,将此次大众工厂这具肇事机器人想象为“天网”的先遣队或侦察兵,或是主动效忠“天网”的机器恐怖份子,想必为时过早。认为这只是一次意外事故,此刻基本上还是可以相信的。
  稍微有点意思的是,我关注了一下网上对此事的反应,并结合近来媒体上对人工智能的讨论,发现这样一个现象:那些对人工智能表示警惕和担忧,乃至郑重发出警告的,基本上都是国外学者。而国内的评论者则普遍发表乐观的言论,甚至不厌其烦地解释大众工厂有如何严密的防范措施——听着倒像工厂当局的危机公关。脱离这一具体事件,进入对人工智能前景的一般性讨论时,也是同样情景。

   “排山倒海而来”的伦理道德难题

  上述机器人杀人事件如果只是意外事故,当然比较简单,但这并不妨碍人们沿着“假如这个机器人是有意杀人”的思路往深处思考。如果一个机器人有意杀人,就会引发一系列“排山倒海而来”的伦理、道德和法律问题。人类社会在这方面远远没有做好准备,倒是科幻作品已经做了不少探索,影片《机械公敌》(I, Robot,2004)就是这样的作品。
  公元2035年的芝加哥,USR公司开发的机器人已经普遍进入人类日常生活,悲观的人对此忧虑重重,乐观的人则坚信机器人只会使人类生活更加幸福。故事始于NS-5机器人的设计者神秘死亡,看上去是自杀的,但警方怀疑此事与机器人有关。在调查过程中,确实出现了一个有嫌疑的机器人。但是USR公司和市长都不希望警官穷追猛打追究下去,他们对于“机器人谋杀了兰尼博士”这样的指控尤为反感——市长是担心引起市民的恐慌,公司当然是担心NS—5机器人的销售受到阻碍。
  公司代表竭力将此事说成一桩“工业事故”,他很雄辩地指出:所谓谋杀,是指一个人蓄谋杀害另一个人,他质问道:“如果你们认为是机器人谋杀了兰尼博士,那你们就承认机器人是人了?”——既然机器人不是人,那就不存在什么谋杀。
  公司代表的辩解,实际上涉及一个很有深度的问题:人权,或者说“人”的资格,究竟靠什么获得?答案只能有两个:
  第一,靠物种的划分获得——生下来是人就是人。但这个答案深究下去就会有问题。常识告诉我们,人类至今还不愿意和“非我族类”的物种像邻居那样共处(指不会给它们人权)。为什么?难道就因为它们长得和人类不一样吗?古训“非我族类,其心必异”的依据是什么?说到底,什么物种的身体不都是由分子原子构成的?
  第二,靠文化获得——掌握了人类的文化,就可以跻身人类之列。这种答案,听上去有点匪伊所思,其实有相当的合理性。我们可以作一个联想或类比。
  清代雍正年间,曾静鼓动清朝军政大员反清复明,事发获大逆之罪,雍正却不杀他,反而将和他辩论批驳的文献颁行天下,要求当时的大小知识分子“学习领会”,这部奇特的文献集就是著名的《大义觉迷录》。曾静鼓动反清复明,理论依据是中国的“夷夏之辨”,说到底也就是“非我族类,其心必异”。雍正针对“夷夏之辨”指出:昔日虞舜是“东夷之人”,周文王是“西夷之人”,他们为什么有权统治中原?是因为他们掌握了中原文化。雍正据此为满清征服中原辩解,认为满族人之所以有权统治汉族,也是因为他们已经采纳了汉族文化。换言之,统治权的获得,不是依靠血统,而是依靠文化。类比此事,则一旦机器人掌握了人类文化,它们为什么不能获得人权?
  在影片《机械公敌》中,可怕的事情还是发生了。由于人类采用了“让机器人制造机器人”的技术,这固然高效快捷,但是太可怕了——那个反叛人类、违反“机器人三定律”的机器人,得以“克隆”出大批它的同志,它们成群走上街头,和人类冲突起来。影片最终的结局,有点扑朔迷离,那个率先反叛的机器人,在工程师的整治下似乎改邪归正了,机器人的反叛也终于平息了。但是影片结尾时,没有出现任何人类,却是出现了一个救世主式的机器人,统帅着广场上无数的机器人,这暗示着什么呢?一个这样的机器人,它要是反叛人类,它手下的机器人要是“只知有凯撒,不知有共和国”,只听它的指挥,那人类如何应付?或者,影片干脆就是暗示一个由机器人统治的未来世界?
  另一方面,从文化的角度来看,既然机器人掌握了人类文化,哪怕它们最终统治了地球,人类的文化仍然是得到延续的。只是人类自身如果被奴役或灭绝,文化对人类又意味着什么呢?而且那时机器人就要发展它们所掌握的文化了,谁知会发展成什么呢?

   “勿以恶小而为之”

  2015年初,由史蒂芬·霍金、比尔·盖茨和埃隆·马克斯等人签署的公开信,呼吁控制人工智能的研发。马克斯认为人工智能会“唤出恶魔”,比核武器对人类的威胁还大。霍金则明确断言:“彻底开发人工智能可能导致人类灭亡。”
  可是这样苦口婆心的警告,却被一些出于自身利益考量的业者或“一根筋”的科学主义者嗤之以鼻。例如,“智能机器人领域全球领衔分析师”(不知谁给他封了这样的头衔)汤姆·奥斯汀就高调表示:霍金等人的上述警告“是非常愚蠢的”——理由竟是“现在人工智能还很低级”!
  这让我想起三国时代那位白帝城托孤的刘先主,他在遗嘱中留下了道德名言:“勿以恶小而为之,勿以善小而不为”。刘备的意思是:事之为不为,要根据善恶来决定,而不是根据程度来决定。可是上面这位奥斯汀的逻辑却是相反的:事之为不为,不是根据善恶来决定,而是根据程度来决定——人工智能现在还很低级,所以就应该发展,所以霍金、盖茨等人的警告就是“非常愚蠢”的。
  这位奥斯汀如果想有效驳斥霍金、盖茨等人的警告,就应该论证人工智能不会唤出恶魔,只会唤出天使,论证彻底开发人工智能不可能导致人类灭亡。换言之,这和人工智能目前发展到什么程度无关——如果人工智能有恶有危险,即使现在还很低级也不应该发展。
  这里特别需要考虑人工智能和互联网的结合,这种结合将快速突破个体机器人智能的物理极限,因而具有极大的危险性。一个和互联网结合的机器人,进化成“超人工智能”可能只需弹指一挥间,到时人类如何掌控它?
  国内从事人工智能的业者和学者,持乐观态度的更为普遍。例如有学者相信,只要我们对机器人“进行道德教育”,“上上思想课”,就可以保证它们一心向善。可是你想想,全世界每年有千千万万青少年走上犯罪道路,难道没有老师和家长对他们进行过道德教育?人类既然连自己下一代中有人学坏都无法防止,凭什么能防止有朝一日智能远在自己之上的机器人学坏呢?

江晓原 博客文章
2015-08-24
 

上一篇: 座谈“报魂”(臧志成) 下一篇: 当“书虫”进入“书山”里(钱平雷...