警惕人工智能技术的社会学盲点

2018年10月31日 10:35 来源:中国社会科学网 作者:侯丽

  数字技术特别是人工智能技术的发展在给人们带来便利的同时,也产生了与其相关的社会学问题。近年来,如何应对数字技术可能给人类造成的负面影响,如何在人工智能技术发展的过程中对其给予更多社会学视角的关注和分析,成为各国学者探讨的话题。为此,本报记者采访了有关学者。

情感识别是重要盲点

  在数字技术和人工智能技术引发的社会学辩论中,被提到最多的问题是技术缺少对人类情感层面的关注。美国圣路易斯大学法学助理教授安娜·鲁奇曼(Ana Rutschman)表示,像语音智能助手、人工智能医疗设备等主要基于“大数据+自动化”的人工智能技术形态,通常被人们称为“狭义人工智能”。这些技术在展现强大数据处理能力的同时,有一个重要盲点是无法识别人类细微的情感活动。而随着人们对人工智能技术的依赖程度不断加深,每个人的隐私和感受能否得到客观公正的对待,成为人们担忧的重点。

  考虑到更多人性层面的需求,一些国家已经开始行动。10月19日“对话”网发文称,美国国会正在考虑针对人工智能技术制定相关法律,用以规范其在人类社会中的动作。目前,美国国会下属的一个委员会正在关注人工智能算法的类型。该委员会建议,在运用人工智能设备执行特殊任务时,必须在技术上考虑到各种情况的复杂性。

  鲁奇曼认为,这至少说明美国国会释放出一个积极信号,政府和政策制定者应更积极地关注人工智能技术对个体和社会造成的影响。

  英国威斯敏斯特大学新闻传播学教授伊恩·格林(Ian Green)对本报记者表示,以自动化写作为例,虽然应用相关程序提高了媒体机构对一些格式化文本的处理效率,但基于大数据的算法,使得这些程序无法辨别人类语言中的“刻板印象”。因此,使用这些程序写作的文本难以体现出人类社会在种族平等、性别平等方面的进步和词汇量的更新。与此同时,并不完善的算法还有可能导致原本不应被使用的“不恰当词汇”被大量使用。

  对此,鲁奇曼进一步解释说,尽管人工智能技术的发展尚处于初期阶段,但其负面影响已逐步显现。例如,算法会针对那些已被设定为目标的信息进行大量推送,这可能造成人们对事件形成“虚假”和“不实”评估,导致人们对人和事丧失真实判断。这一点在社交媒体用户身上体现得非常明显。

设立有关伦理道德的软性标准

  为了更好地引导数字技术走向“正途”,相关领域的研究者一直在努力。他们试图给数字技术设立更多“软性标准”。2017年底,美国电气和电子工程师协会宣布了三项新的人工智能伦理标准:“机器化系统、智能系统和自动系统的伦理推动标准”“自动和半自动系统的故障安全设计标准”和“道德化的人工智能和自动系统的人类福祉衡量标准”。该协会希望以此呼吁人们重视人工智能技术的发展标准问题,同时在开发新的人工智能技术时优先考虑人类利益。在该协会的一份文件中提到,应鼓励人工智能技术的研究者考虑技术中的伦理因素。

  电气和电子工程师协会下属的机器人和自动化协会负责人田所悟志(Satoshi Tadokoro)解释说,机器人和自动化系统将为社会带来重大变革,但民众也会越来越关心因其而产生的社会问题。人工智能技术将带来一些虚构和想象出来的错误信息,这一点值得人们警惕。因此,该协会试图将基于科学和技术的公认事实引入人工智能技术的算法中,以期实现人类整体利益的最大化。

  近日,英国智库沃达丰研究所围绕“人工智能与人类学:技术如何塑造我们?”这一专题进行了讨论。牛津大学教授尼格尔·沙德博尔特(Nigel Shadbolt)表示,人们应该想办法驱散对人工智能技术的恐慌,这就需要对技术与人类的互动机制和原理进行研究,从而看清人工智能技术对科学、经济和政治等领域的影响。有学者认为,多考虑社会伦理价值,将更有益于人工智能技术的发展,并促进人工智能设备与人类实现良性互动。

  此外,《自然》杂志官网近期发布的学者文章提到,人工智能技术在每个发展阶段,都会对社会产生重大影响。有学者建议,从概念、设计、部署到管理的各个环节,都应介入社会学角度的评估和分析。例如,不仅要使用当下的数据,还要引入历史数据,这样才能构建起对事件的整体性理解。对此,微软研究院首席研究员凯特·克劳福德(Kate Crawford)表示,社会系统分析方法涉及哲学、法学、社会学、人类学等诸多学科。通过对社会、经济、政治、文化诸领域的相互影响进行权衡,社会系统分析方法能够对人工智能技术进行更为综合、全面的分析与介入。

    记者 侯丽