2019年01月23日 09:51 来源:中国社会科学网-中国社会科学报 作者:侯丽
1月16日,美国皮尤研究中心发布的一项报告显示,很多社交媒体针对用户行为习惯进行的标签分类并不科学,并引发部分用户的不适。
乱贴标签引反感
研究发现,以美国社交媒体“脸书”为例,约有一半用户声称,该平台在针对他们的行为进行内容分类时,使他们“感觉很不舒服”;约有27%的用户声称该平台主动把他们划入的“类别”(classification),并不能真正代表他们。比如,该平台上有一个功能,向用户推荐“根据用户资料选择跟你有共同特点的朋友”,但很多用户认为,这种推荐并不科学和准确。
皮尤研究中心研究人员保罗·希特林(Paul Hitlin)表示,除了社交媒体,在线零售商、新闻媒体平台等商业机构都在根据用户提供的个人资料和用户的过往活动来分析他们的行为习惯甚至性格特点,并以此为标准向用户推送信息。然而,这种“算法驱动的分类系统”(algorithm-driven classification systems)虽然实现了对用户的高效分类,但并不符合实际情况,有时甚至会带来很多负面影响。
研究人员表示,“脸书”用户可以通过“你的广告偏好设置”选项,比较直观地了解网络平台是如何通过算法对用户的兴趣进行分类的。不过,有70%以上的用户表示,他们并不知道这些选项和功能的存在。在调研过程中,研究人员将用户引入相关页面时,88%的用户发现这一页面可以自动生成关于他们个人偏好的信息,59%的用户认为这些自动分类基本真实地反映了他们的兴趣偏好,27%的用户认为这些自动归纳出来的信息“并不能真正地代表他们”。当用户了解到平台可以自动对他们进行“分类”并生成个人兴趣偏好列表时,51%的用户对平台的这一行为感到“不舒服”。
过分导向商业目的
皮尤研究中心研究人员李·雷尼(Lee Rainie)表示,有相当一部分网络平台和手机应用程序跟踪人们在网络上的日常行为习惯,以此了解人们是如何使用数字服务的。这些商业机构还会通过相关数据向用户推送其可能感兴趣的内容和商业广告。显然,通过算法对用户行为进行评估,可以更好地获取商业利益。与此同时,这些算法得出的结果也成为对用户身份的有效猜测。近年来,社交媒体等商业机构对用户偏好的分析行为已频繁引发关于个人隐私的诸多争论。比如,“脸书”有一个功能,如果用户点击平台推荐的广告,即使用户退出该平台应用程序,其离线活动在一定程度上依然会被跟踪。
研究人员表示,总体而言,网络平台通过算法获得的信息,可以在一定程度上反映用户的网络行为习惯,这些信息覆盖了人口统计、社交网络和关系、政治倾向、食物偏好、娱乐兴趣等方方面面,这些内容不仅组成了用户的“数字肖像”,甚至极可能在人们不知晓的范围内被利用。
此次皮尤研究中心调研发现,88%的用户认为,在“脸书”将他们的行为偏好进行分类后,他们被导引到了其可能会感兴趣的广告页面上。其中,13%的用户认为这种导引“非常准确”,46%的用户认为“有点儿准确”,22%的用户认为“不完全准确”,5%的用户认为“完全不准确”。
政治偏好分析误差较大
除分析用户的日常行为习惯外,一些社交平台还对用户进行政治倾向、种族/民族亲和力等方面的分析。在与政治标签相关的类别里,有51%的“脸书”用户被自动认定为对当前政治具有“亲和力”,而其中有近1/3的人认为这种分类“并不准确”;有1/5的用户被认定为“在多元文化领域具有亲和力”,但其中37%的用户认为他们在这方面的亲和力并不是特别突出。总体而言,57%的用户认为在与政治偏好相关的分类中,自己被“脸书”比较准确地进行了归类。
值得注意的是,对于自己被贴上政治标签,很多用户表示“不满意”。以“脸书”为例,那些被贴上政治标签的用户大致被分为自由派或非常自由派(34%)、保守派或非常保守派(35%)、温和派(29%)。其中,近73%的人表示,这份清单非常准确或稍微准确地描述了他们的政治观点,约27%的人表示这个标签并不准确。例如,约20%被标为自由主义者的人和约25%被标为保守主义者的人认为,该平台贴给他们的政治标签并不准确。
研究人员表示,政治偏好归类相对来说并不容易符合用户实际情况,这是因为用户在社交平台上往往不能充分表现出自己的政治倾向。
利用政治倾向、多元文化亲和力等敏感标签作为分类工具而导入广告的商业行为曾引发大量争议。比如,在美国国会压力下,“脸书”于2018年7月与华盛顿州检察机关签署了一项协议,将不再允许广告商通过种族、宗教、性取向等方面的数据分析结果来吸引或排除用户。
研究人员表示,现在的难点在于,很少有网络平台真正能够站在用户的立场上分析“乱贴标签”给个体带来的负面影响。在法律边界和个人感受之间,还存在较大鸿沟,显然还需要从法律层面加强对个体的保护。
(本报波士顿1月22日电)