揭開算法“黑箱” ︰讓你上癮的背後是什麼?

來源︰網絡傳播雜志作者︰李康樂責任編輯︰岳修宇
2018-04-19 00:00

2

算法限制我們的思維嗎?

算法在某種意義上是極簡文化的產物。人們渴望確定性的標準答案,來簡化信息時代因信息洪流而帶來的焦慮和迷茫。亞歷山大•加洛韋在《界面效應》一書中表示,算法文化有向簡單主義發展的趨勢,這是“無法根據眼前的情況考慮全局的問題,以及無法像解讀歷史那樣解讀現在所導致的必然後果”。

算法是一種選擇,選擇就意味著舍棄。信息的個性化推薦本質上並不是用戶在主動選擇信息,而是信息的主動呈現。用戶所接觸到的信息要麼是奪人眼球的10萬+,要麼局限在他們感興趣的狹小領域,要麼就是與他們觀點和意見相一致的“溺愛式”信息。人們沉浸在算法制造的信息繭房里,失去了對不同領域、不同觀點的接觸機會,精神世界也會因此變得狹窄。在算法的世界里,人只是一個個數據點的集合,而不會被當作一個個體來被理解和對待。人性的幽微、需求的多樣、情感的復雜,遠非代碼可以呈現。

算法預測、影響並進而控制用戶行為。算法對人思維的限制也可以從自動補全算法窺見。自動補全算法最初設計的目的是為了幫助殘疾人提升打字的速度,但是後來谷歌將它納入服務功能,在用戶完成搜索內容輸入之前猜測他們想要搜索的內容,以節省時間。然而自動補全算法卻給谷歌帶來了官司。

2012年,德國前總統克里斯蒂安•武爾夫的妻子貝蒂娜•武爾夫指控谷歌的自動補全算法對她進行誹謗和中傷。輸入她的名字,自動補全會出現指向妓女及陪侍行業的搜索項。法院判決,谷歌必須保證自動補全算法生成的搜索項不含有任何攻擊性或中傷性的內容。武爾夫打贏了官司。谷歌宣稱對這個判決結果極為“失望”,認為判決結果是對谷歌客觀性的公開質疑。公司發言人說︰“谷歌不應當對自動補全算法生成的搜索項負責,因為這些預測不是谷歌自我完成的,而是計算機算法基于之前的搜索記錄自動完成的。”實際上,對于那些本來並不了解武爾夫的用戶,在看到搜索信息提示以後,確實很可能會被引導到某個方向。算法不僅可以預測用戶的行為,還會對用戶的行為產生影響並實現控制。

算法技術使用戶很多信息行為並非以需求為導向。算法將特定的選項放在用戶面前,導致用戶只能在所提供的選項中做出選擇。人們在信息獲取過程中的主動性被極大削弱。在很大程度上,用戶被算法所提供的信息“喂養”,這些信息並不都是用戶真正的需求。有時候,信息“偶遇”也成了預謀已久的信息“踫瓷”。

輕觸這里,加載下一頁