时间: 2021-08-03 09:17:56 人气: 24 评论: 0
一个“概念”是否合理,其标准并不是口口相传的程度,只有动用理性精神去分析、去拆解,才能接近它的真正本质。
正如马歇尔·麦克卢汉所言,媒介技术是社**发展的基本动力,每一种新媒介的产生,都开创了人类感知和认识世界的新方式。步入算法时代,作为技术的算法重构了一切领域的运行规则和运作模式。
对于内容产业而言,基于算法推荐的内容分发机制,不仅可以满足不同受众的个性化信息需求,还能大大节省用户获取内容的时间成本,使其能够最为效率地获得需要的信息。
但人们并未在这种美好愿景中沉湎太久,对新技术的警惕致使算法分发不断受到质疑。因为在算法推荐系统下,算法基于用户的社交关系和信息偏好,推荐与用户高度匹配的个性化内容,而这可能**引发一定的问题。
早在WEB 1.0时代,由信息私人订制所造成的信息偏食就曾引起众多学者和评论家的担忧。他们认为,个性化信息的盛行将导致民众只关心他们感兴趣的内容,从而侵蚀社**的共识基础,危害民主社**发展。
“信息茧房”(Information Cocoons)这一概念就在此时兴起,用以描述信息偏食所造成的风险。经过长时间的使用,这个概念似乎已经成为一种定理,当算法时代来临,它也自然而然地被挪用在算法推荐的内容分发机制之上,并逐渐成为后者的“原罪”。
问题在于,尽管此概念被沿用已久,但我们似乎从未认真考虑它的正确性。实际上,正因为它对算法分发的指责如此严厉,才应该更谨慎地对此加以审视:伴随技术条件的更新以及媒介环境的变革,这一诞生于WEB 1.0时期的概念是否还具备适用性?它是否还能准确描述算法分发的负面影响,以及互联网内容生态所罹患的不良症候呢?
“信息茧房”这个概念,最为人熟知的来源是美国法学教授凯斯·桑斯坦的《信息乌托邦》。该书出版于2006年,尽管为时尚早,但彼时信息的个人化、定制化已经成为一大趋势。
早在1995年,比尔·盖茨就曾预言:在未来世界,量身定制的信息将自然增加,每个人都可以编排一份完全符合自己兴趣的“日报”。而在次年出版的《数字化生存》一书中,学者尼葛洛庞帝也预言了个性化定制的“我的日报”(The Daily Me)即将出现。
桑斯坦非常认同“我的日报”,并在此基础上进一步提出“信息茧房”的概念。他指出,在互联网时代,伴随网络技术的发达以及信息量的剧增,每个人都能随意选择关注的话题,并可以根据自己的喜好打造一份个人日报,但这种信息选择行为将**导致“信息茧房”的形成。
他所谓的“信息茧房”,是指传播体系个人化所导致的信息封闭的后果。当个体只关注自我选择的或能够愉悦自身的内容,而减少对其他信息的接触,久而久之,便**像蚕一样逐渐桎梏于自我编织的“茧房”之中。桑斯坦认为,这将导致视野偏狭和思想的封闭甚至极化,进而**加强偏见并制造出非理性的极端主义,直至侵害政治民主。
严格来说,人们更愿意接触自己感兴趣的内容,这受人的天性或者说思想惰性的制约,而技术的发展确实有加强这一倾向的趋势。正因为契合了对此现象担忧的社**心理,“信息茧房”这一概念逐渐被大众认可并被广泛使用。
但桑斯坦提出“信息茧房”时,算法还是个模糊的概念。当算法技术逐渐发展成熟,并成为内容分发的通行规则之后,人们惊奇地发现:“信息茧房”似乎更能贴切地描述算法所造成的影响。
在传统媒体时代,媒体机构面向大众生产新闻,并依赖人工编辑的方式进行分发,并无明确的受众细分意识。而基于算法推荐的内容分发,以用户的个人特征为标准进行信息筛选,并向用户推荐与其兴趣和价值观高度匹配的个人化信息,由此形成“千人千面”的内容消费形态。
从积极的方面来看,这种分发方式使信息传播更加扁平化,各类信息内容的显现度与曝光量由算法规则所决定,受众可以自由选择信息,削弱了专业媒体的内容把关能力和议程设置能力。
但与此同时,也有越来越多人担心,算法推荐机制正通过个性化的名义背离多元性的信息传播方式:它是否**过分迎合用户偏好,让我们只能看到自己想看到的东西,只听到自己认同的观点,进而导致信息封闭?
在这种情况下,“信息茧房”概念又被重新提起,用以批评算法分发所导致信息接收窄化、信息结构失衡问题。无论是用户还是内容供应商,都开始认同这一概念。更多人将其与网络场域的意见分裂、极端化以及社**整体价值观离散化联系在一起,以证明“信息茧房”对社**共识基础的侵害。
表面上看起来,对“信息茧房”的担心似乎不无道理。算法分发机制下,决定内容的标准是用户的个人特征,算法将筛选后的信息聚集起来再分发给用户,确实有导致信息封闭的危险。但关键是,我们已经熟稔于使用这个概念并日益将其标签化,却忘记思考一个问题:它真的有理可依吗?
实际上,除了评论家们空口白牙的指责,信息茧房这一概念在学术界鲜有量化数据的支撑。相反,已有的许多研究证明,信息茧房的负面效应其实不足为惧。
试想一下,如果我们要论证“信息茧房”是否存在,应该怎么入手?具体而言,有两个呈递进关系的必要条件:
1. 从信息消费维度,证明人们只通过有限的媒介渠道(这些媒介还必须是算法分发型)接触信息;
2. 从受众心理维度,论证有限的信息接触,导致了受众观念的单一化和极端化。
后者偏长效性的心理测量,操作更加复杂,因此相关研究较少。更多现有的研究是从第一个维度切入,并证明“信息茧房”这个概念根本无法成立。
比如,2016年Seth Flaxman等学者进行了一项很有代表性的实验[1]。研究人员选择了5万名参与者,要求他们报告自己最近阅读、观看或收听的新闻媒体,同时通过电子手段直接监测和记录他们的实际新闻消费行为,包括网页浏览历史等。通过两项数据的对比,研究最终发现人们实际的媒体消费比他们自己想象中更具有多样性,也就是说,人们实际并没有陷入“信息茧房”中,但他们可能**装作自己陷入了其中。
其实,即便没有这些研究成果作支撑,仅从常识或逻辑的角度切入推断,我们也**发现信息茧房只不过是个一戳就破的“泡泡**”:
大部分情况下,人们只**主动接触或选择相信符合他先前观念的内容,这是人性使然。
在传播学里,描述此现象的**是“选择性接触”假说,即受众习惯于接触与自己原有态度、观点、立场相吻合的信息,而尽量避开与自己观点、价值观念相悖的内容,以求得心理的平衡与和谐。
众多研究支持这一假说,比如学者Garrett在2009年的一项研究就发现,受试者更倾向于从符合其政治观点的出口选择、接收新闻内容[2]。
所以,如果说有什么“茧房”,那也只是人性中趋利避害的元素所编织的茧房。换言之,思维封闭的“锅”应该甩给人类的思维惰性,而不是算法分发。
回想一下在没有个性化算法的时代,假如你买一份杂志或报纸,遇到不感兴趣的内容同样只**草草翻过,并不多看一眼,而算法分发只是为你节省了跳过不感兴趣内容的时间。
“信息茧房”的支持者认为,在传统媒体时代,报纸、电视能提供无筛选的新闻信息,即便人们不专门去看,也可以不经意地瞄到、看到一些未曾预料的信息,而算法分发消灭了这种可能性。
此类观点忽略了一点——互联网的低准入门槛降低了信息获取的成本,不同类型的内容自由流通,人们能接触到比过往更广泛的信息。
从这个角度出发,互联网只**打破信息封闭,降低“信息茧房”出现的概率。
而且这种观点有些过于理想化甚至有些幼稚,因为它把互联网视为仅由算法分发机制支配的信息环境。但实际上,互联网是多种媒介聚合的平台,新闻网页、视频网站、社交媒体、新闻聚合APP等媒介并存,这些渠道采取了不同的信息分发方式,也都**对人们的观点和思维产生影响。
回想一下自己的信息消费习惯,我们不太可能只垂青某一个信息端口。无论是门户网站、微信公众号、朋友圈、微博还是各种新闻APP,我们总**接触到不同的观点和信息源。各种类型的内容已经无孔不入地侵入到人们的生活中,而我们**主动或在不经意间与它们保持接触,却不太可能对自己兴趣之外的事情充耳不闻。
退一步说,假设未来某一天,所有的信息传播渠道都被算法分发机制所垄断,并且它只推送符合人们兴趣的内容,那后果真的**很严重吗?
我们可以大体想象一下,假设一个爱好历史的人,他对历史研究充满兴趣;但如果因为算法分发,他错过了有关NBA的赛事信息或者是某明星的花边新闻,对他个人来说,似乎并没有什么损失。
反倒是如果真像“信息茧房”批评者所期待的那样,为这个人推送所有领域的最新动态,似乎并不现实、也很不必要。这不但牺牲了算法聚合信息、匹配分发的效率性,让用户无法找到自己需要的信息,还可能引发后果更为严重的“信息冗余”或“信息爆炸”。
诚然,算法对当下现实社**的影响无所不在并且无比强大。当算法推荐被用于商业领域,有利于细化消费市场,帮助消费者提高效率、节省时间;而当这种模式触及内容分发、牵涉到知识与思想领域,就容易引起人们的警惕。
但“信息茧房”这一并不是特别合理的概念之所以盛行,显示了我们似乎对“算法的权力”过分戒备,以至于忽视了我们正享受着算法带来的红利。
溯其原因,可以归结为人类的一贯思维方式:人们天生惧怕新事物以及它所带来的改变。
回顾媒介技术发展史,从口语到文字,再到电子媒介时代的广播、电视、计算机,几乎每一种新技术的出现都**引发人们的恐慌与质疑。
在《斐德罗篇》中,苏格拉底斥责文字损害人类记忆,呼唤重回口语时代;广播、电视出现后,评论家又抨击电子媒介**损害人类形成于印**时代的、缜密理性的思维模式;而当计算机面世之后,它更被打造成洪水猛兽一样的可怕形象,其中最有代表性的声音,当属尼古拉斯·卡尔在《浅薄》一书中对网络导致人类思维退化的批判。
我们现在可能觉得这些批评太过杞人忧天,但与之同理,当宛若黑箱一样的算法技术日益成熟并牵涉到内容分发,人们又开始害怕人类的思考能力被限制、独立意志被支配、政治民主被侵害。
在某种意义上,这是与过往对新技术的批判一脉相承的,它源于对未知事物的不确定性以及由此引发的恐惧心理。
而“信息茧房”所描述的症结,其实恰恰是算法还不够成熟的体现。
成熟的算法能够为人们提供各种类型的有益信息,在提高生产、生活效率的同时,又能促进人们视野开阔、思想进步,这才是技术向善的体现。
面对算法分发可能存在的信息偏向问题,信息供应商也开始采取各种手段进行纠正,比如新闻APP“跨越分歧的阅读”(Read Across the Aisle)、Chrome浏览器“逃离泡泡”插件,以及微信的“看一看”功能也在以社交推荐的方式对信息偏向进行技术纠偏。
无论如何,“信息茧房”是一种赫胥黎式的警言,它提醒我们应避免技术对人类的异化。但过分地夸大新技术的负面效应,只**阻碍技术进步。
即便是提出“信息茧房”概念的桑斯坦也在《信息乌托邦》中指出:“新的传播技术正在使事情变得更好而不是更糟”。随着技术的进步和人类认知的不断深化,我们有理由相信,信息偏向的问题将**得到妥善的解决。
①Flaxman, Seth,Sharad Goel, and Justin M. Rao.2016. “Filter Bubbles, Echo Chambers, and OnlineNews Consumption.” Public Opinion Quarterly 80(1): 298–320.
②Garrett, R.Kelly. 2009. “Echo Chambers Online? Politically Motivated Selective Exposureamong Internet News Users.” Journal of Computer-Mediated Communication14:265–85.
作者:苏伦,公众号:正经研究
本文由 @苏伦 原创发布于人人都是产品经理。未经许可,禁止转载
题图来自 Unsplash,基于 CC0 协议