揭开算法“黑箱” :让你上瘾的背后是什么?

来源:网络传播杂志作者:李康乐责任编辑:岳修宇
2018-04-19 00:00

2

算法限制我们的思维吗?

算法在某种意义上是极简文化的产物。人们渴望确定性的标准答案,来简化信息时代因信息洪流而带来的焦虑和迷茫。亚历山大·加洛韦在《界面效应》一书中表示,算法文化有向简单主义发展的趋势,这是“无法根据眼前的情况考虑全局的问题,以及无法像解读历史那样解读现在所导致的必然后果”。

算法是一种选择,选择就意味着舍弃。信息的个性化推荐本质上并不是用户在主动选择信息,而是信息的主动呈现。用户所接触到的信息要么是夺人眼球的10万+,要么局限在他们感兴趣的狭小领域,要么就是与他们观点和意见相一致的“溺爱式”信息。人们沉浸在算法制造的信息茧房里,失去了对不同领域、不同观点的接触机会,精神世界也会因此变得狭窄。在算法的世界里,人只是一个个数据点的集合,而不会被当作一个个体来被理解和对待。人性的幽微、需求的多样、情感的复杂,远非代码可以呈现。

算法预测、影响并进而控制用户行为。算法对人思维的限制也可以从自动补全算法窥见。自动补全算法最初设计的目的是为了帮助残疾人提升打字的速度,但是后来谷歌将它纳入服务功能,在用户完成搜索内容输入之前猜测他们想要搜索的内容,以节省时间。然而自动补全算法却给谷歌带来了官司。

2012年,德国前总统克里斯蒂安·武尔夫的妻子贝蒂娜·武尔夫指控谷歌的自动补全算法对她进行诽谤和中伤。输入她的名字,自动补全会出现指向妓女及陪侍行业的搜索项。法院判决,谷歌必须保证自动补全算法生成的搜索项不含有任何攻击性或中伤性的内容。武尔夫打赢了官司。谷歌宣称对这个判决结果极为“失望”,认为判决结果是对谷歌客观性的公开质疑。公司发言人说:“谷歌不应当对自动补全算法生成的搜索项负责,因为这些预测不是谷歌自我完成的,而是计算机算法基于之前的搜索记录自动完成的。”实际上,对于那些本来并不了解武尔夫的用户,在看到搜索信息提示以后,确实很可能会被引导到某个方向。算法不仅可以预测用户的行为,还会对用户的行为产生影响并实现控制。

算法技术使用户很多信息行为并非以需求为导向。算法将特定的选项放在用户面前,导致用户只能在所提供的选项中做出选择。人们在信息获取过程中的主动性被极大削弱。在很大程度上,用户被算法所提供的信息“喂养”,这些信息并不都是用户真正的需求。有时候,信息“偶遇”也成了预谋已久的信息“碰瓷”。

轻触这里,加载下一页