您的位置:首頁>科技>正文

演算法“塑造世界”客觀嗎?如何賦予科技以正向價值

4月初, 快手和清華大學宣佈成立未來媒體資料聯合研究院, 快手CEO表示, 如果沒有很好的對社會的認知、對人文的思考, 僅靠技術本身會很容易走偏,

要用哲學的智慧將演算法、技術力量放大, 從而避免表達幸福感的種種障礙。 確實, 演算法在我們的生活中扮演著越來越重要的角色, 關於演算法倫理的討論也日益引起關 注:演算法作為資訊和使用者之間的“黑色通道”不可見, 它是客觀的嗎?會限制思維嗎?

凱文 斯拉文在TED演講中說, 演算法“提煉自這個世界, 來源於這個世界”, 而現在則“開始塑造這個世界”。 在演算法“塑造世界”的時代, 值得我們思考的是:該如何突破功利主義瓶頸, 賦予科技以正向的價值?

演算法沒有價值觀嗎?

演算法最大的優勢是能夠根據使用者的“數位自我”而實現智慧化、精准化推薦。 從某種意義上說, 演算法是人們在資訊的汪洋大海中快速找到自己所需的“捷徑”。

人們信任演算法, 是基於其“客觀性”。 穀歌公司堅信“我們的用戶信任我們的客觀性”。 穀歌的人—機演算法模式, 試圖強調“技術理性”, 即“沒有人為因素干預的 客觀性”。 但是純粹的客觀性真的存在嗎?

演算法的背後是人, 演算法作為人類智慧的產物, 無疑是需要承載一定價值的。 演算法的來源涉及諸多因素, 人類的需求、利益和社會環境、現有技術等都會對演算法產 生影響, 演算法設計者的認知能力、知識水準、設計意圖、價值觀念同樣也會影響演算法。 “代碼即法律”(code is law), 美國學者勞倫斯 萊斯格認為, “儘管代碼可以實現去管制化, 但代碼本身不是固定的, 而是可以被商業、政治等非技術力量操控和改變的,

人們在網路上的行為認知是受到管制的, 只不過這種管制是通過更改代碼而實現的”。

每個公司的演算法不盡相同, 而這背後體現的都是他們的目的和價值觀。 我們認為自己擁有很大的權利去選擇資訊, 但實際上所有的選項都是演算法給出的既定選 項, 演算法在某種程度上決定了我們可以看見什麼、我們以為什麼是真實。 在佔領華爾街運動高漲的時期, Facebook並沒有在顯著位置予以推薦, 那些將 Facebook作為主要資訊來源的人很可能因此認為這件事情並沒有那麼重要。 社會學家威廉 湯瑪斯與桃樂西 湯瑪斯說過:“如果人們把某種情境定義為真實的, 這種情境就會造成真實的影響。 ”

雖然聚合類新聞資訊用戶端本身並不從事內容生產,

依靠的是管道優勢換取媒體和自媒體內容供應, 但是, 所有的推送內容其實都會承載一定的價值觀。 社會科 學研究中所謂的“價值無涉”, 並不是沒有價值, 而是指對不同價值內容予以同樣的尊重, 以及給予不符合你的價值觀的資訊以修正你價值觀的權利。 因此, 認為算 法沒有價值觀的觀點本身就值得商榷。

演算法限制我們的思維嗎?

演算法在某種意義上是極簡文化的產物。 人們渴望確定性的標準答案, 來簡化資訊時代因資訊洪流而帶來的焦慮和迷茫。 亞歷山大 加洛韋在《介面效應》一書中表示, 演算法文化有向簡單主義發展的趨勢, 這是“無法根據眼前的情況考慮全域的問題, 以及無法像解讀歷史那樣解讀現在所導致的必 然後果”。

演算法是一種選擇, 選擇就意味著捨棄。 資訊的個性化推薦本質上並不是使用者在主動選擇資訊, 而是資訊的主動呈現。 使用者所接觸到的資訊要麼是奪人眼球的10 萬+, 要麼局限在他們感興趣的狹小領域, 要麼就是與他們觀點和意見相一致的“溺愛式”資訊。人們沉浸在演算法製造的資訊繭房裡,失去了對不同領域、不同觀點 的接觸機會,精神世界也會因此變得狹窄。在演算法的世界裡,人只是一個個資料點的集合,而不會被當作一個個體來被理解和對待。人性的幽微、需求的多樣、情感 的複雜,遠非代碼可以呈現。

演算法預測、影響並進而控制用戶行為。演算法對人思維的限制也可以從自動補全演算法窺見。自動補全演算法最初設計的目的是為了説明殘疾人提升打字的速度,但是 後來穀歌將它納入服務功能,在使用者完成搜索內容輸入之前猜測他們想要搜索的內容,以節省時間。然而自動補全演算法卻給穀歌帶來了官司。

2012年,德國前總統克利斯蒂安 武爾夫的妻子貝蒂娜 武爾夫指控穀歌的自動補全演算法對她進行誹謗和中傷。輸入她的名字,自動補全會出現指向妓女及陪侍行業的搜索項。法院判決,穀歌必須保證自動補全演算法生成的 搜索項不含有任何攻擊性或中傷性的內容。武爾夫打贏了官司。穀歌宣稱對這個判決結果極為“失望”,認為判決結果是對穀歌客觀性的公開質疑。公司發言人說: “穀歌不應當對自動補全演算法生成的搜索項負責,因為這些預測不是穀歌自我完成的,而是電腦演算法基於之前的搜索記錄自動完成的。”實際上,對於那些本來並 不瞭解武爾夫的使用者,在看到搜索資訊提示以後,確實很可能會被引導到某個方向。演算法不僅可以預測使用者的行為,還會對用戶的行為產生影響並實現控制。

演算法技術使使用者很多資訊行為並非以需求為導向。演算法將特定的選項放在使用者面前,導致用戶只能在所提供的選項中做出選擇。人們在資訊獲取過程中的主動性 被極大削弱。在很大程度上,使用者被演算法所提供的資訊“餵養”,這些資訊並不都是使用者真正的需求。有時候,信息“偶遇”也成了預謀已久的信息“碰瓷”。

演算法時代的 “自救”

對演算法的質疑從演算法誕生起就一直存在,這種質疑其實也反映了人類的科學理性。在對演算法的設計提出繼續完善的同時,我們當然要學會“自救”,也就是面對演算法要做到自我保護。

對演算法可能存在限制有所覺察。對於使用者而言,演算法最大的問題在於不透明。演算法的複雜性即便是技術人員也未必能搞清,更不用說普通的“技術小白”。雖然 我們看到的只是演算法給出的結果,而對其中的設計理念、運行邏輯都一無所知,但是,我們應該知道演算法其實並不是完全客觀的存在,它有可能被歪曲並存有偏見。 我們要始終對演算法可能存在限制有所覺察,知曉那些不符合我們價值觀的內容很可能已經被遮罩在視野之外。

保持提問的良好習慣,而不要指望答案唾手可得。在所有問題都可以輕鬆解決的世界裡,人們需要一種更加激進的思維模式。提問時,試著去瞭解演算法正在發揮 哪些作用,它們最初設計的目的是什麼,以及所謂的“相關性”和“新聞價值”究竟是對誰而言。現在已經有人開始從事演算法資料干擾的研究,以便在演算法試圖瞭解 他們、並將他們分類時採取干擾或規避措施。有人平時買報紙,用傳統網頁方式流覽新聞,儘量不依靠智慧搜索,為的就是用自己的邏輯對抗演算法可能帶來的資訊窄 化,不被演算法限制。

要麼就是與他們觀點和意見相一致的“溺愛式”資訊。人們沉浸在演算法製造的資訊繭房裡,失去了對不同領域、不同觀點 的接觸機會,精神世界也會因此變得狹窄。在演算法的世界裡,人只是一個個資料點的集合,而不會被當作一個個體來被理解和對待。人性的幽微、需求的多樣、情感 的複雜,遠非代碼可以呈現。

演算法預測、影響並進而控制用戶行為。演算法對人思維的限制也可以從自動補全演算法窺見。自動補全演算法最初設計的目的是為了説明殘疾人提升打字的速度,但是 後來穀歌將它納入服務功能,在使用者完成搜索內容輸入之前猜測他們想要搜索的內容,以節省時間。然而自動補全演算法卻給穀歌帶來了官司。

2012年,德國前總統克利斯蒂安 武爾夫的妻子貝蒂娜 武爾夫指控穀歌的自動補全演算法對她進行誹謗和中傷。輸入她的名字,自動補全會出現指向妓女及陪侍行業的搜索項。法院判決,穀歌必須保證自動補全演算法生成的 搜索項不含有任何攻擊性或中傷性的內容。武爾夫打贏了官司。穀歌宣稱對這個判決結果極為“失望”,認為判決結果是對穀歌客觀性的公開質疑。公司發言人說: “穀歌不應當對自動補全演算法生成的搜索項負責,因為這些預測不是穀歌自我完成的,而是電腦演算法基於之前的搜索記錄自動完成的。”實際上,對於那些本來並 不瞭解武爾夫的使用者,在看到搜索資訊提示以後,確實很可能會被引導到某個方向。演算法不僅可以預測使用者的行為,還會對用戶的行為產生影響並實現控制。

演算法技術使使用者很多資訊行為並非以需求為導向。演算法將特定的選項放在使用者面前,導致用戶只能在所提供的選項中做出選擇。人們在資訊獲取過程中的主動性 被極大削弱。在很大程度上,使用者被演算法所提供的資訊“餵養”,這些資訊並不都是使用者真正的需求。有時候,信息“偶遇”也成了預謀已久的信息“碰瓷”。

演算法時代的 “自救”

對演算法的質疑從演算法誕生起就一直存在,這種質疑其實也反映了人類的科學理性。在對演算法的設計提出繼續完善的同時,我們當然要學會“自救”,也就是面對演算法要做到自我保護。

對演算法可能存在限制有所覺察。對於使用者而言,演算法最大的問題在於不透明。演算法的複雜性即便是技術人員也未必能搞清,更不用說普通的“技術小白”。雖然 我們看到的只是演算法給出的結果,而對其中的設計理念、運行邏輯都一無所知,但是,我們應該知道演算法其實並不是完全客觀的存在,它有可能被歪曲並存有偏見。 我們要始終對演算法可能存在限制有所覺察,知曉那些不符合我們價值觀的內容很可能已經被遮罩在視野之外。

保持提問的良好習慣,而不要指望答案唾手可得。在所有問題都可以輕鬆解決的世界裡,人們需要一種更加激進的思維模式。提問時,試著去瞭解演算法正在發揮 哪些作用,它們最初設計的目的是什麼,以及所謂的“相關性”和“新聞價值”究竟是對誰而言。現在已經有人開始從事演算法資料干擾的研究,以便在演算法試圖瞭解 他們、並將他們分類時採取干擾或規避措施。有人平時買報紙,用傳統網頁方式流覽新聞,儘量不依靠智慧搜索,為的就是用自己的邏輯對抗演算法可能帶來的資訊窄 化,不被演算法限制。

Next Article
喜欢就按个赞吧!!!
点击关闭提示