您的位置:首頁>科技>正文

人工智慧什麼時候影響百靈鳥SEO演算法

過去一兩年, 人工智慧是最火的並且快速進入實用的技術。 以前寫過人工智慧將徹底改變SEO, 也介紹過人工智慧在搜索演算法中的實際應用, 但需要說明的是, 到目前為止, 人工智慧在搜索演算法中的應用並不廣泛。 影響人工智慧在搜索演算法中大範圍使用的最主要因素可能是, 搜尋引擎工程師不知道人工智慧系統到底是怎麼做出判斷的, 然後又導致另一個重要問題:很難debug。

人工智慧是個黑盒子

用不太嚴格但容易理解的方式說, 深度學習就是給現有資料(大量資料)打標籤, 然後系統自己總結資料和結果(也就是所打的標籤)之間的關係, 面對新資料時, 就能依據自己總結的規律給出判斷。 對圍棋來說, 無論歷史棋局還是自我對弈, AlphaGo知道盤面, 也知道結局(也是一種標籤), 系統就會總結規律, 面對新盤面時判斷贏棋的概率。 但AI系統找到的是資料的哪些特徵,

與結果之間是怎樣的關係, 連創造AI的工程師也不知道。

所以, 現在的人工智慧系統是個黑盒子。 我們知道AI判斷的正確率高, 但不知道為什麼, 不知道是怎麼判斷的。

搜索演算法中的AI也是如此。 百度搜索工程師的說法很少見到, 只是知道百度現在All In AI了。 Google工程師明確表示過, 他們對RankBrain到底是怎麼工作的也不太清楚。 在這種情況下, 在演算法中大量使用人工智慧就比較麻煩了, 一旦出現異常結果, 不知道是什麼原因, 也無法debug。

寫這篇帖子是因為前些天看到一篇紐約時報的文章“AI能學會解釋它自己嗎?”, 非常有意思。 一位元心理學家Michal Kosinski把20萬社交網路帳號(是個約會網站)的照片及個人資訊(包括很多內容, 如性向)輸入面部識別人工智慧系統,

發現人工智慧在只看到照片的情況下判斷性向準確率很高。 人工通過照片判斷一個人是否同性戀的準確率是60%, 比扔硬幣高一點, 但人工智慧判斷男性是否同性戀準確率高達91%, 判斷女性低一些, 也有83%。

從照片裡是看不到音色語調、體態、日常行為、人際關係之類説明判斷的資訊的。 同性戀有純相貌方面的特徵嗎?我個人的經驗是, 靠相貌判斷不大靠譜。 我以前認識一對男同, 他們都是很man的那種, 常年健身, 待人彬彬有禮但絕沒有女氣, 從外表是看不出來的。 也可能是依靠某種服飾特點?表情?背景?人工智慧從照片中到底看到了什麼我們人類很可能忽略了的特徵, 或者人類根本看不到的特徵,

並達到91%的準確率呢?不得而知, 反正只是知道AI看得挺准。

不能解釋自己的AI無法被信任

這種黑箱特徵有時候倒無關緊要, 像是判斷一下性向。 有時候就不能這麼草率了, 比如看病。 雖然AI系統診斷某些癌症的正確率已經達到人類醫生的水準, 但最後結論, 目前還是要醫生做, 尤其是AI不能告訴我們它診斷的理由是什麼的時候。 除非以後AI能解釋它為什麼做出這個診斷, 不然讓人類100%信任AI是有比較大心理障礙的。

前幾天剛剛看到新聞, 新加坡政府開始測試無人駕駛公共汽車。 這顯然是個正確的方向, 我也相信不久的將來就會成為現實。 雖然自動駕駛汽車事故率比人低, 理性上我們都知道其實更安全, 但過馬路時, 停在旁邊的公共汽車沒有司機,

我會不會有點提心吊膽, 怕它突然啟動?開車時扭頭一看, 旁邊的Bus沒有司機, 我會不會嚇一跳, 下意識地離它遠點?至少初期會的吧。 和幾個朋友聊起這個事, 都是理性上相信, 感性上心虛。

以前的程式是依靠確定性和因果關係運行的, 比如搜索演算法中哪些頁面特徵是排名因素, 各占多少權重, 這是工程師挑出來的、確定的, 雖然挑的時候可能就是拍腦袋決定的, 但經過監測效果、調整參數, 會達到一個比較滿意的平衡。 人工智慧系統並不依靠工程師給定的確定因果, 而是更擅長於在概率和相關性中找到聯繫。 對人來說, 以概率和相關為特徵的判斷, 經常就不好解釋理由了, 比如也許是看心情, 也許是看好看不好看。

要求AI系統解釋自己的判斷,不僅是心理上的問題,也許以後會變成倫理和法律上的問題,像看病。再比如涉及用戶利益的事情,像貸款,人工智慧根據一大堆資料做出拒絕貸款的決定,銀行卻不能解釋為什麼拒絕,對用戶該怎麼交代?今年歐盟可能就要頒佈法規,要求機器做出的決定必須有解釋。這對Google、Facebook等全球性的企業是個壓力。在很多領域,如軍事、法律、金融,所有決定都是要有人來承擔責任的,如果某個決定無法解釋原因,恐怕也沒有人敢承擔這個責任。

另一個需要AI解釋理由的原因是,前面提到,人工智慧看的是概率和相關性,但看相關性做決定有時候會導致嚴重錯誤。紐約時報的文章舉了個例子。經過資料訓練的人工智慧系統輔助醫院急診室分診,總體上看效果不錯,但研究人員還是不敢真的拿來實用,因為資料中的相關性可能誤導人工智慧做出錯誤判斷。比如資料表明,患有肺炎的氣喘病人最後病癒情況好于平均水準,這個相關性是真實存在的。

如果AI系統因為這個資料就給有肺炎的氣喘病人比較低的處理等級,那可能就要出事了。因為這些病人之所以最後情況良好,是因為他們一來就被給予最高等級,得到最好最快的治療了。所以,有時候從相關性看不到真正的原因。

可解釋的人工智慧

X.A.I.(Explainable AI)可解釋的人工智慧,是剛剛興起的一個領域,目的就是讓AI對自己的判斷、決定和過程做出解釋。去年美國國防高級研究計畫局(Darpa )推出了David Gunning博士領導的XAI計畫。Google也依然是這個領域的領先者,Deep Dream好像就是這方面研究的一個副產品:

人工智慧與SEO

回到搜索演算法及SEO,搜尋引擎之所以還無法全面應用人工智慧,其中一個原因也許就是人工智慧的判斷沒有解釋、無法理解,如果演算法使用目前的人工智慧,一旦出現排名異常,工程師們將無法知道原因是什麼,就更無法知道該怎麼調整。

我想自動駕駛是最先AI實用化的領域之一,和能否解釋也有一定關係。自動駕駛汽車的大部分決定是不大需要解釋的,或者說解釋是一目了然的,距離前車太近所以要減速或者刹車,這類判斷應該不需要進一步解釋理由了。

SEO們大概都有過同樣的疑惑,某個競爭對手的頁面看著沒什麼特殊的,內容不怎麼樣,視覺設計一般,外鏈普通,頁面優化大家做的都一樣,為什麼排名就那麼好呢?現在的搜索演算法還可以探究原因,搜索工程師們大概有內部工具可以看到排名的合理性。如果搜索工程師看著一個挺爛的頁面就是排在前面,卻也不知道原因,還無從查起,他們的內心可能就焦慮了。

也許是看好看不好看。

要求AI系統解釋自己的判斷,不僅是心理上的問題,也許以後會變成倫理和法律上的問題,像看病。再比如涉及用戶利益的事情,像貸款,人工智慧根據一大堆資料做出拒絕貸款的決定,銀行卻不能解釋為什麼拒絕,對用戶該怎麼交代?今年歐盟可能就要頒佈法規,要求機器做出的決定必須有解釋。這對Google、Facebook等全球性的企業是個壓力。在很多領域,如軍事、法律、金融,所有決定都是要有人來承擔責任的,如果某個決定無法解釋原因,恐怕也沒有人敢承擔這個責任。

另一個需要AI解釋理由的原因是,前面提到,人工智慧看的是概率和相關性,但看相關性做決定有時候會導致嚴重錯誤。紐約時報的文章舉了個例子。經過資料訓練的人工智慧系統輔助醫院急診室分診,總體上看效果不錯,但研究人員還是不敢真的拿來實用,因為資料中的相關性可能誤導人工智慧做出錯誤判斷。比如資料表明,患有肺炎的氣喘病人最後病癒情況好于平均水準,這個相關性是真實存在的。

如果AI系統因為這個資料就給有肺炎的氣喘病人比較低的處理等級,那可能就要出事了。因為這些病人之所以最後情況良好,是因為他們一來就被給予最高等級,得到最好最快的治療了。所以,有時候從相關性看不到真正的原因。

可解釋的人工智慧

X.A.I.(Explainable AI)可解釋的人工智慧,是剛剛興起的一個領域,目的就是讓AI對自己的判斷、決定和過程做出解釋。去年美國國防高級研究計畫局(Darpa )推出了David Gunning博士領導的XAI計畫。Google也依然是這個領域的領先者,Deep Dream好像就是這方面研究的一個副產品:

人工智慧與SEO

回到搜索演算法及SEO,搜尋引擎之所以還無法全面應用人工智慧,其中一個原因也許就是人工智慧的判斷沒有解釋、無法理解,如果演算法使用目前的人工智慧,一旦出現排名異常,工程師們將無法知道原因是什麼,就更無法知道該怎麼調整。

我想自動駕駛是最先AI實用化的領域之一,和能否解釋也有一定關係。自動駕駛汽車的大部分決定是不大需要解釋的,或者說解釋是一目了然的,距離前車太近所以要減速或者刹車,這類判斷應該不需要進一步解釋理由了。

SEO們大概都有過同樣的疑惑,某個競爭對手的頁面看著沒什麼特殊的,內容不怎麼樣,視覺設計一般,外鏈普通,頁面優化大家做的都一樣,為什麼排名就那麼好呢?現在的搜索演算法還可以探究原因,搜索工程師們大概有內部工具可以看到排名的合理性。如果搜索工程師看著一個挺爛的頁面就是排在前面,卻也不知道原因,還無從查起,他們的內心可能就焦慮了。

Next Article
喜欢就按个赞吧!!!
点击关闭提示