4月初, 快手和清華大學宣佈成立未來媒體資料聯合研究院, 快手CEO表示, 如果沒有很好的對社會的認知、對人文的思考, 僅靠技術本身會很容易走偏,
凱文 斯拉文在TED演講中說, 演算法“提煉自這個世界, 來源於這個世界”, 而現在則“開始塑造這個世界”。 在演算法“塑造世界”的時代, 值得我們思考的是:該如何突破功利主義瓶頸, 賦予科技以正向的價值?
演算法沒有價值觀嗎?
演算法最大的優勢是能夠根據使用者的“數位自我”而實現智慧化、精准化推薦。 從某種意義上說, 演算法是人們在資訊的汪洋大海中快速找到自己所需的“捷徑”。
演算法的背後是人, 演算法作為人類智慧的產物, 無疑是需要承載一定價值的。 演算法的來源涉及諸多因素, 人類的需求、利益和社會環境、現有技術等都會對演算法產 生影響, 演算法設計者的認知能力、知識水準、設計意圖、價值觀念同樣也會影響演算法。 “代碼即法律”(code is law), 美國學者勞倫斯 萊斯格認為, “儘管代碼可以實現去管制化, 但代碼本身不是固定的, 而是可以被商業、政治等非技術力量操控和改變的,
每個公司的演算法不盡相同, 而這背後體現的都是他們的目的和價值觀。 我們認為自己擁有很大的權利去選擇資訊, 但實際上所有的選項都是演算法給出的既定選 項, 演算法在某種程度上決定了我們可以看見什麼、我們以為什麼是真實。 在佔領華爾街運動高漲的時期, Facebook並沒有在顯著位置予以推薦, 那些將 Facebook作為主要資訊來源的人很可能因此認為這件事情並沒有那麼重要。 社會學家威廉 湯瑪斯與桃樂西 湯瑪斯說過:“如果人們把某種情境定義為真實的, 這種情境就會造成真實的影響。 ”
雖然聚合類新聞資訊用戶端本身並不從事內容生產,
演算法限制我們的思維嗎?
演算法在某種意義上是極簡文化的產物。 人們渴望確定性的標準答案, 來簡化資訊時代因資訊洪流而帶來的焦慮和迷茫。 亞歷山大 加洛韋在《介面效應》一書中表示, 演算法文化有向簡單主義發展的趨勢, 這是“無法根據眼前的情況考慮全域的問題, 以及無法像解讀歷史那樣解讀現在所導致的必 然後果”。
演算法是一種選擇, 選擇就意味著捨棄。 資訊的個性化推薦本質上並不是使用者在主動選擇資訊, 而是資訊的主動呈現。 使用者所接觸到的資訊要麼是奪人眼球的10 萬+, 要麼局限在他們感興趣的狹小領域, 要麼就是與他們觀點和意見相一致的“溺愛式”資訊。人們沉浸在演算法製造的資訊繭房裡,失去了對不同領域、不同觀點 的接觸機會,精神世界也會因此變得狹窄。在演算法的世界裡,人只是一個個資料點的集合,而不會被當作一個個體來被理解和對待。人性的幽微、需求的多樣、情感 的複雜,遠非代碼可以呈現。
演算法預測、影響並進而控制用戶行為。演算法對人思維的限制也可以從自動補全演算法窺見。自動補全演算法最初設計的目的是為了説明殘疾人提升打字的速度,但是 後來穀歌將它納入服務功能,在使用者完成搜索內容輸入之前猜測他們想要搜索的內容,以節省時間。然而自動補全演算法卻給穀歌帶來了官司。
2012年,德國前總統克利斯蒂安 武爾夫的妻子貝蒂娜 武爾夫指控穀歌的自動補全演算法對她進行誹謗和中傷。輸入她的名字,自動補全會出現指向妓女及陪侍行業的搜索項。法院判決,穀歌必須保證自動補全演算法生成的 搜索項不含有任何攻擊性或中傷性的內容。武爾夫打贏了官司。穀歌宣稱對這個判決結果極為“失望”,認為判決結果是對穀歌客觀性的公開質疑。公司發言人說: “穀歌不應當對自動補全演算法生成的搜索項負責,因為這些預測不是穀歌自我完成的,而是電腦演算法基於之前的搜索記錄自動完成的。”實際上,對於那些本來並 不瞭解武爾夫的使用者,在看到搜索資訊提示以後,確實很可能會被引導到某個方向。演算法不僅可以預測使用者的行為,還會對用戶的行為產生影響並實現控制。
演算法技術使使用者很多資訊行為並非以需求為導向。演算法將特定的選項放在使用者面前,導致用戶只能在所提供的選項中做出選擇。人們在資訊獲取過程中的主動性 被極大削弱。在很大程度上,使用者被演算法所提供的資訊“餵養”,這些資訊並不都是使用者真正的需求。有時候,信息“偶遇”也成了預謀已久的信息“碰瓷”。
演算法時代的 “自救”
對演算法的質疑從演算法誕生起就一直存在,這種質疑其實也反映了人類的科學理性。在對演算法的設計提出繼續完善的同時,我們當然要學會“自救”,也就是面對演算法要做到自我保護。
對演算法可能存在限制有所覺察。對於使用者而言,演算法最大的問題在於不透明。演算法的複雜性即便是技術人員也未必能搞清,更不用說普通的“技術小白”。雖然 我們看到的只是演算法給出的結果,而對其中的設計理念、運行邏輯都一無所知,但是,我們應該知道演算法其實並不是完全客觀的存在,它有可能被歪曲並存有偏見。 我們要始終對演算法可能存在限制有所覺察,知曉那些不符合我們價值觀的內容很可能已經被遮罩在視野之外。
保持提問的良好習慣,而不要指望答案唾手可得。在所有問題都可以輕鬆解決的世界裡,人們需要一種更加激進的思維模式。提問時,試著去瞭解演算法正在發揮 哪些作用,它們最初設計的目的是什麼,以及所謂的“相關性”和“新聞價值”究竟是對誰而言。現在已經有人開始從事演算法資料干擾的研究,以便在演算法試圖瞭解 他們、並將他們分類時採取干擾或規避措施。有人平時買報紙,用傳統網頁方式流覽新聞,儘量不依靠智慧搜索,為的就是用自己的邏輯對抗演算法可能帶來的資訊窄 化,不被演算法限制。
要麼就是與他們觀點和意見相一致的“溺愛式”資訊。人們沉浸在演算法製造的資訊繭房裡,失去了對不同領域、不同觀點 的接觸機會,精神世界也會因此變得狹窄。在演算法的世界裡,人只是一個個資料點的集合,而不會被當作一個個體來被理解和對待。人性的幽微、需求的多樣、情感 的複雜,遠非代碼可以呈現。演算法預測、影響並進而控制用戶行為。演算法對人思維的限制也可以從自動補全演算法窺見。自動補全演算法最初設計的目的是為了説明殘疾人提升打字的速度,但是 後來穀歌將它納入服務功能,在使用者完成搜索內容輸入之前猜測他們想要搜索的內容,以節省時間。然而自動補全演算法卻給穀歌帶來了官司。
2012年,德國前總統克利斯蒂安 武爾夫的妻子貝蒂娜 武爾夫指控穀歌的自動補全演算法對她進行誹謗和中傷。輸入她的名字,自動補全會出現指向妓女及陪侍行業的搜索項。法院判決,穀歌必須保證自動補全演算法生成的 搜索項不含有任何攻擊性或中傷性的內容。武爾夫打贏了官司。穀歌宣稱對這個判決結果極為“失望”,認為判決結果是對穀歌客觀性的公開質疑。公司發言人說: “穀歌不應當對自動補全演算法生成的搜索項負責,因為這些預測不是穀歌自我完成的,而是電腦演算法基於之前的搜索記錄自動完成的。”實際上,對於那些本來並 不瞭解武爾夫的使用者,在看到搜索資訊提示以後,確實很可能會被引導到某個方向。演算法不僅可以預測使用者的行為,還會對用戶的行為產生影響並實現控制。
演算法技術使使用者很多資訊行為並非以需求為導向。演算法將特定的選項放在使用者面前,導致用戶只能在所提供的選項中做出選擇。人們在資訊獲取過程中的主動性 被極大削弱。在很大程度上,使用者被演算法所提供的資訊“餵養”,這些資訊並不都是使用者真正的需求。有時候,信息“偶遇”也成了預謀已久的信息“碰瓷”。
演算法時代的 “自救”
對演算法的質疑從演算法誕生起就一直存在,這種質疑其實也反映了人類的科學理性。在對演算法的設計提出繼續完善的同時,我們當然要學會“自救”,也就是面對演算法要做到自我保護。
對演算法可能存在限制有所覺察。對於使用者而言,演算法最大的問題在於不透明。演算法的複雜性即便是技術人員也未必能搞清,更不用說普通的“技術小白”。雖然 我們看到的只是演算法給出的結果,而對其中的設計理念、運行邏輯都一無所知,但是,我們應該知道演算法其實並不是完全客觀的存在,它有可能被歪曲並存有偏見。 我們要始終對演算法可能存在限制有所覺察,知曉那些不符合我們價值觀的內容很可能已經被遮罩在視野之外。
保持提問的良好習慣,而不要指望答案唾手可得。在所有問題都可以輕鬆解決的世界裡,人們需要一種更加激進的思維模式。提問時,試著去瞭解演算法正在發揮 哪些作用,它們最初設計的目的是什麼,以及所謂的“相關性”和“新聞價值”究竟是對誰而言。現在已經有人開始從事演算法資料干擾的研究,以便在演算法試圖瞭解 他們、並將他們分類時採取干擾或規避措施。有人平時買報紙,用傳統網頁方式流覽新聞,儘量不依靠智慧搜索,為的就是用自己的邏輯對抗演算法可能帶來的資訊窄 化,不被演算法限制。