《中国社会科学报》2015年07月20日第2版 作者:张清俐
日前,已进行测试多年的谷歌无人驾驶汽车发生事故,致人受伤,这一事件再次将人工智能牵涉的伦理问题推到风口浪尖。人工智能研究与生俱来具有“哲学特质”。学者认为,不同人工智能专家推出的人工智能产品背后有不同哲学预设和思路,由两个不同编程思维的机器预测同一件事就会得出不一样的结论;同样,也不能指望通过造一台机器解决所有问题,因为造机器的人本身是有限性的。
人类智慧的物化结果
目前,众多互联网巨头都在人工智能领域投入巨大资金,并且在诸如语音识别、图像识别、自动驾驶汽车技术等人工智能领域的研究已经初见成果。“包括人工智能在内每一项技术的诞生、发展和进步,一定程度上都是以机器来替代人类体力和智力作为技术发展逻辑的终点。”上海社会科学院哲学研究所副研究员计海庆说。
有专家分析认为,在一些灾难事件背后,往往都有人为因素导致或加重灾难性后果的存在。“在某些特殊情境和极端条件下,人性弱点往往会放大灾难后果。”计海庆认为,在某些情况下,技术的应用有助于克服人类的负面情绪。拥有人工智能的自动机器(或软件)能够比人更准确、可靠和完整地执行某些任务。一套足够成熟的人工智能系统,可以在一定程度上减少甚至纠正人为不安全因素。
复旦大学哲学学院教授徐英瑾强调,应该看到即使再智能的机器也是科学家通过统计学、数据挖掘原理等,将科学的规则以编程形式让机器自动运行,因此,其归根结底还是人类智慧的物化结果。
机器人伦理意识成焦点
事实上,随着人工智能技术的广泛应用,在这些领域广泛应用的机器人也面临类似伦理困境:机器人能否成为伦理主体?比如,自动驾驶汽车提升了生活的便捷性,更增强了安全性。然而,面对复杂的公路情况,我们真的可以将可能牵涉“生杀大权”的伦理选择交给机器人吗?
对此,中国社会科学院哲学研究所研究员甘绍平认为,“机器人与具有自由选择能力的人有根本的区别。”在他看来,前者的行为取决于原因,后者的自主决断取决于理由,而决定意味着对不同理由的思考和选择。原因从属于自然界的必然性,理由则起源于人际交往、社会关联的运行规则和对文化历史经验累积的反思与醒悟。道德选择的前提是自由意志。意志自由只属于能够对理由进行思考、判定、权衡与抉择的人。机器人不可能拥有自由意志,也不可能具备伦理决策的理解力。
中国政法大学哲学系教授费多益对机器人的伦理意识这一提法进行了质疑,“机器只能在理想情况而不是在综合复杂的情形下进行识别,后者恰恰与人类主观经验密不可分。机器总是机械、精确地执行人类为它编制好的程序,它的算法完全无法刻画人类视觉思维中的容错性,而这种容错性,正是人类值得骄傲的心智特征。”
徐英瑾则认为,虽然目前机器人还远未智能到成为伦理主体,但机器人具有伦理意识并不是完全没有可能。为实现这一目标,需要人类研究伦理意识和程序之间的关系,以一套编程语言表达这套规则。但他也指出,目前机器人可以扮演“参谋”的角色,即当我们面对不同选择时,由它提供每一种选择面临不同结果的概率,人类有最终决定权,并承担所有责任。毕竟这一“参谋”提供的选择源于客观理性,可以平衡人类的直觉思维,利于人类在直觉与机器方案之间再做平衡选择。
警惕人工智能副作用
在人工智能应用的各个领域都不乏审慎的声音,人们担心日益成熟的技术可能成为一把“双刃剑”。今年1月,由一批人工智能科学家创立的“生命未来研究所”发表了一封公开信,呼吁人们要警惕人工智能的副作用,并特别提到把人工智能的法律和伦理研究列为“短期研究优先项”,呼吁伦理学家和人工智能专家的合作。
目前关于人工智能的伦理反思更多出现在科幻作品中。“基于现有的人工智能理论和可供实现的技术手段,还不存在任何具有成人智力水平的智能系统研发成功的希望。因此,人工智能的社会应用面临的伦理困境这类问题,更多带有思想实验性质。背后则是伦理学的功利论或义务论的推理模式。”计海庆表示,学术界对于人工智能的伦理问题的思考具有自己的特点。比如从思想史的角度找出人工智能技术产生的思想背景,或是历史上类似的技术在社会化过程中产生过怎样的问题,以及这些问题是如何被解决或消解的,以此作为一个预见性结论的参照系。
伦理学家如何与人工智能科学家进行合作?徐英瑾认为,人工智能涉及的伦理问题需要业界编程思路与哲学思辨思路相结合。他在《心智、语言和机器:维特根斯坦哲学和人工智能科学的对话》一书中对哲学和人工智能之间的内在关联进行了探讨,认为伦理学家需要熟悉决策论、博弈论这些经济学、统计学等领域的理论,思考这些理论的哲学前提,加强对人工智能话题的人文考量,如此才能够向业界反馈有质量的意见和建议。
中国社会科学报记者 张清俐