摘要:“信息茧房”一词已迅速从学术研究渗透到日常生活。例如,当年轻人吐槽“你们看过爸妈的手机吗?他们刷到的内容和我完全不一样,这简直就是信息茧房”时,实际上他们混淆了“信息茧房”...
“信息茧房”一词已迅速从学术研究渗透到日常生活。例如,当年轻人吐槽“你们看过爸妈的手机吗?他们刷到的内容和我完全不一样,这简直就是信息茧房”时,实际上他们混淆了“信息茧房”和“个性化推荐”的概念。个性化推荐根据个人兴趣和场景等因素呈现不同的结果,这实属正常。但将这种千人千面的推荐效果等同于信息茧房,不免有失偏颇,容易导致信息茧房概念的滥用和泛化。
这种近乎直觉的推断让人喜忧参半。喜的是,人们对新技术的社会影响保持着认知上的敏感和反思。忧的是,信息茧房概念被不断泛化,陷入过于简单化的归因,对算法技术的评价不够公允,甚至可能滑向不利于社会创新的技术悲观论调。
信息茧房一词包含两层含义:
它描述了个人眼中均质化的信息环境。早在 2006 年,美国政治学家兼法学家卡斯·桑斯坦在其著作《信息乌托邦》中,用“茧房”比喻这样一个环境:由于信息过滤的个性化,个体只能接触到符合自己观点的信息,从而陷入同质化的信息环境。
在学术研究中,“过滤泡”和“回声室”是比信息茧房更常用的概念。人们上网时都有类似的体验:立场不同的双方围绕某个争议性话题展开争论,结果不但谁也无法说服谁,也不愿意理解对方,甚至会强化自己的既有立场。回声室描述了这样一种情况:人们生活在一个封闭的社交圈中,均质化的信息不断重复和放大,导致回声室内成员对外界信息的接触越来越少,只能听到与自己观点一致的声音。
算法与茧房的因果关系尚未得到证实。美国杜克大学政治学与公共政策教授克里斯·贝尔在其著作《打破社交媒体棱镜》中做了一个实验:当为用户提供对立的观点时,人们反而变得更加极端,更捍卫自己的既有立场。这个实验表明,即使我们接触的是多元化的信息,我们仍然会维护自己的立场,甚至变得极端,这个过程不一定需要“过滤泡”或“信息茧房”的媒介。
信息茧房、过滤泡和回声室等概念都表达了这样一种担忧:人们在选择性接触信息时,可能会陷入自我强化的反馈循环,从而失去接触多元信息和不同观点的机会。这是一个复杂的社会问题,受包括个体、技术、场景和社会在内的多种因素共同影响。但在人们的日常认知中,这个多因多果的问题经常被简化为“算法导致信息茧房”的单因单果说法。
为了弄清这个问题,我们需要全面地了解算法。
从技术层面上看,算法是一种计算方法。我们对数学中的“鸡兔同笼”问题的求解,就是一个最简单的计算方法。推荐算法要解决的是互联网时代伴随着海量信息产生的分发难题。“猜你想看”也是一道算法题,信息平台根据人们的地理位置数据、既有浏览记录、朋友的兴趣等,完成信息的有效分发。