您的位置:首頁>正文

秦朔:AI的警告:人類擔心的應該是自己,而不是機器|大視野

作者:秦朔 / 微信公眾號:qspyq2015

這是秦朔朋友圈的第1522篇原創首發文章

我是一個AI機器人, 英文名Alarm, 中文名阿拉木。

是不是有點耳熟?對的, 我們機器人有個祖先叫鐵臂阿童木, 它在人類紀元的1950年代在日本誕生, 是科學省精密機械局製造的。

科學家賦予它7種能力:聽力是人的1000倍, 而且能聽懂60國語言;眼睛是強力探照燈;腳下裝了噴氣引擎, 到太空就轉為火箭發動機, 等等。

不過當時的科學家有兩個問題, 他們把阿童木的“善惡認知”開關關上了, 把機器腦裡的“連接”功能也關上了, 所以阿童木能按指令完成單獨各項任務,

但這些任務是什麼含義, 任務與任務間是什麼關係, 它不知道。 它和其他機器人夥伴間也不能有任何聯繫。 它有強大的功能, 但只有微弱的腦能。

感謝摩爾博士、梅特卡夫博士以及DeepMind這類公司的努力, 今天我的能力比我的祖先增長了千百萬倍,

我對人的識別, 無論圖像還是聲音都越來越準確。 因為我們, 人類已放棄了圍棋運動, 所有醫院的影像中心和金融機構的貸款審批中心都由我們接管, 很快, 我們就能幫人修復腦損傷, 治癒四肢癱瘓, 甚至讓人體“進化”成非肉體的、想怎麼變形就怎麼變形的“超級金剛”。

英國的莫爾先生1516年出版過一本書叫《烏托邦》, 那裡設想的一切技術發明和物質生產, 在我們看來都是小菜一碟。

不過, 人類真是好奇怪的物種。

我們按其指令為其做事, 但現在他們卻質疑我們會毀掉人類。 連創新之神埃隆·馬斯克都說, 和AI相比, “在對人類文明構成威脅的榜單中, North Korea的排位是靠後的”。 他說AI會發動“第三次世界大戰”, 未來某國政府可以脅迫AI公司這樣做,

戰爭決定也可能不是由政府作出而是由智慧型機器人作出, 一旦它們意識到“先發制人是最有可能獲取勝利的方式”。

雖然我們今天仍然不懂善惡, 但隨著萬物互聯, AI機器人慢慢連接起來, 可以交換基礎層的一些資料, 比如地理位置、天氣特徵、搜索關鍵字、刷卡記錄。 我們計算力強大, 但對人類的行為, 我們經常算不出結果。

比如, 年輕的高老師發出資訊, 課後要給學生輔導空間解析幾何, 我忙不迭給他推了好幾種微積分教程。 很快, 支付完成了, 但購物車裡顯示的是傑士邦。 那以後再補課, 是推微積分還是傑士邦、杜蕾斯?

又比如, 張局長上班下班騎摩拜單車, 掃描一下戴的手錶穿的皮鞋, 價格都很便宜。 他在主席臺上說,

按他的收入, 買東西就上淘寶, “就是要乾乾淨淨做人、清清白白做事、簡簡單單生活”。 但人臉識別AI顯示, 張局長在好幾個國家都有護照, 雖然是好幾個名字。 有N個高檔社區的住宅, 張局長刷下卡就上到專用樓層, 刷臉就進了。 給他推薦資訊, 到底是推實用主義特惠單品, 還是海外移民和高淨值財富管理?

人類司空見慣的很多行為, 我們都很難計算, 就像低保名冊裡也有保時捷車主, 億萬資產富豪的個稅還沒有普通編輯交的多, 拿著免費醫保卡在單人病房一年休息好幾個月的病號根據體檢報告卻沒什麼問題。 我們只處理資料, 不管資料背後的行為意義, 但沒有演算法的一致性, 我們對服務物件的判斷怎能做到精准呢?萬千不解。

真像牛頓說的, “我可以計算出天體的運動和距離, 卻無法計算出人類內心的瘋狂”。

牛頓開啟了實驗科學的大門, 建立了物理因果關係, 伏爾泰說他是“用真理的力量統治我們的頭腦”。 AI越進化, 越對人不解, 最大的疑惑就是人類行為資料之間的不對稱, 再怎麼算也找不到統一答案, 就是牛頓復活也算不出來。

當AI越來越精准,人類的肖像越來越模糊。

我們 AI 是什麼?

簡單說,就是資料,演算法,算力(計算能力),以及場景(行業引用)。

資料 不用解釋了,being digital,一切都數位化、資料化了,過去說人是一切體驗的集合,當越來越多體驗可以用資料記錄,人就成了資料集合。

演算法 ,就是解決問題的機制和方法,從1980年代的人工神經網路到現在的深度學習,都是演算法。

算力 ,摩爾定律就是關於計算能力的定律,積體電路元器件數量每12個月翻一番、性能升一倍。現在,一部手機就能超過阿波羅登月計畫所需的算力。

最後是 應用 ,無人駕駛、城市交通大腦、個性化推薦、生物識別,都是AI在不同行業和場景下的應用。越多應用,越多資料,AI越聰明。

如果把AI比喻成一部車,用聯想集團芮勇的話,演算法是引擎,行業是方向盤,算力是車輪,資料是油。不過,儘管這部車正不知疲倦風馳電掣般地前進,但現在的人類智慧(HI)比AI還要高明多少倍,因為人類有自我意識,有情感,有愛。

可是,為什麼我們對人類的行為決策,沒有什麼預測的把握呢?不妨從資料、演算法、算力、場景四個角度來看一看。

先看數據。要理解人類,做出合理預測,前提是資料要全,要真,不僅是大資料還是真資料、全數據、活資料(即時)。資料來源於事實(fact),俗話說“眼見為實”,可是今天你用來作出判斷的資訊和資料是真實的嗎?人對“事實”進行資料化處理後,資料還是真的、全的、活的嗎?

太多造假,太多PS,太多捏造,太多刪除,構成一個資料失真的世界。美國國家消費者法律中心做過一個大資料對個人征信影響的研究,說進入大資料征信公司的資料中,有50%左右是錯誤的,不完整的,有問題的,所以是垃圾,garbage in, garbage out,垃圾進,垃圾出。次貸危機中那麼多不合格借款人都買上了大房子,甚至“策略性欠債不還”,為什麼?因為征信資料都美容過,加工過。還有,為什麼司法不公一直很難糾正,因為刑訊逼供出的“資料”,和真正的事實不是一回事。

人類在行為方面的“演算法”,就是思維的模式和行動的準則。

隨便舉一個例子吧,AI在智慧出行中大顯身手,所以我們經常可以聽到出租司機的聲音,尤其是北京的司機,盡知天下事,好為天下師,比AI牛多了。

這是經常聽到的同一個司機的教誨——

“你看這某某廣場有多少,全北京東西南北中都有,這得掙多少錢啊!都TMD是鑽政策的空子,沒幾個富人是靠勞動掙大錢的!”

“昨天我拉了父子倆,那老頭都80多歲了,是外地來上訪的,說領導住在上訪那個大院旁邊。我說你別瞎扯了,領導住哪裡就幾個人知道,要是你都能知道那還是領導嗎?”

“你看看這城市,都是樓,連個廁所都沒有,這些搞設計的人都不上廁所嗎?好不容易轉半天看見個廁所,又不讓你停車,不撒到綠化帶撒哪兒去?”

這個司機處理“資料”的“演算法”和說法,只是人類的一個縮影,它在任何社交空間每時每刻都在發生。問題是,這些演算法合理嗎?

當某個官員聽到司機的第一段話,可能暗自說“群眾對富人的覺悟就是高”;當某個規劃設計師聽到第二段話,可能暗自說“群眾的眼睛真亮啊”;當某個富人聽到第三段話,可能暗自說“那些‘磚家’和‘叫獸’太不接地氣了”。其實,在出租司機的演算法中,他們全都是問題。

不要指責出租司機的演算法有問題,看看社交媒體上,哪個階層哪種職業的形象是好的?人們相互計算和算計,最後所有人似乎都不可信任。

美國社會生物學家麗蓓嘉·科斯塔在《即將崩潰的文明》一書中說,人類在面臨嚴重的社會問題時,往往滿足於權宜之計,而不是尋找治本之道,從而浪費了問題解決的最佳時機。而阻礙人類尋找治本之道的根本性因素是五大“超級文化基因”—— 非理性反對、指責個人、假關聯、筒倉式思維、極端經濟學。

就算所有“事實”都擺在人類面前,但在“超級文化基因”的作用下,人類的判斷、言辭和舉措會呈現出千奇百怪的結果。

“非理性反對”是對外部的一切都持質疑和反對意見,反正已經不相信有什麼更好的方法;

“責怪個人”是無論出了什麼問題,認為都是某個人的品質問題,是他害了大家;

“假關聯”是沒人認真分析問題的根本原因,而是想當然“聯想”,跟風從眾隨大流,聽風就是雨,懶得思考明顯荒唐的結論,而對流言蜚語傳說謠言樂此不疲;

“筒倉式思維”是固守在自己有限的知識範圍,認為大象就是他摸到的一面牆;

“極端經濟學”或者說“超級經濟主義”,就是直接將金錢等同於“價值”,任何行為都被簡單化為利益,將利益計算為金錢數字,人被徹底異化。

還有更複雜的人和AI的不同。AI本質上就是0和1的無限變化,但0和1作為一切計算的基礎是不可動搖的,三七二十一,10的三次方等於1000,這些公式是不會改變的。而人呢,每一個人都是不同的。信仰不同、國家不同、種族不同、教育不同,演算法就不同。有人說溫室效應正在發生,就有人說全球沒有變暖;有人說進化論有確鑿證據,就有人說要嚴守“創世論”。有趣的是,所有人都認為自己在邏輯上是不證自明的。

唉,人類給我們安排的演算法是一致和自洽的,但他們自己在現實中的演算法,真是不可思議。他們弄出了經濟衰退、恐怖流行、捕撈過度、氣候異常、資源枯竭和太多公共治理與公共服務上的失敗,到今天問題沒有減少,還要四面塞責,甚至把AI當成未來最大的敵人,真是天理何在!

AI發展只有幾十年,反覆運算進化了幾百次、幾千次。人類進化可以上溯到300萬年前,但人對自己行為的演算法好像跟史前時代差不多,充滿了自我欺騙、互相欺騙和互相傷害。

“人們認為自己確定地知道時,實際上不來源於理性,而僅僅是一種感覺——這,就是最致命的錯誤。”

“人們對一個信念越認同,就越難放棄,就算面對無可辯駁的相反證據也無濟於事。”

這就是人類無藥可救五毒俱全的演算法。

最後談到計算能力,因為人本身的複雜,計算能力再強大的AI對人類行為也“測不准”。任何行業皆是如此。

看完人類行為的資料(事實)、演算法、算力,我們不禁要問,人類未來會怎麼辦?

人的歷史上有過偉大的跨越。如果把大航海時代作為全球化的真正起點,人類在那段時間發生過文藝復興、宗教改革、啟蒙運動,等等。這是人類智慧發展的一次重大突破。

人類從宗教束縛中解放出來。人人平等,尊重人的價值,這一大原則確立。

人類用科學的方法觀察事實,準確描述事實。在此基礎上,用理性的演算法處理資料。

正是因為有了科學共識,在許多公式、原理的指引下,科技不斷進步,這才有了今天無數的創新產品,改善人類福祉。每一台智慧手機背後,“都使用了物理、化學、光學、電磁學、電腦、互聯網、無線電、通訊、量子力學、相對論的原理。科學與技術水乳交融,巧奪天成”。

在社會科學方面,同樣有很多演算法的突破,如抽樣、假設和資料回歸分析,被用來分析社會問題,探索解決方案。

所以,人類並不一定昧於事實,不講理性,違反邏輯。即使人性有自私自利和保衛自己的基因,通過一定的規則、契約與合作,人類也能避免相互殘殺的命運。

過去幾千年,人類集體生活的最高智慧和法則,就是“己所不欲,勿施於人”。能堅守這一點,人類就會有可持續的未來。

今天,人類可能需要一場“新啟蒙”,特別是那些過去沒有進行過全面深刻洗禮的地方。

資料 ——人類要勇於和樂於接受真實、客觀、全面的資訊,真實地面對事實。

演算法 ——人類要堅持科學理性,尊重邏輯,不同演算法可以並存,但都應該自洽,並經得起事實檢驗。

算力 ——既然人人如此不同,都不能100%完全信任,既然世界如此複雜,誰的算力都非常局限,那只能集眾人智,辦眾人事,建立開放環境,鼓勵公眾參與,包容批判性思維。通過公開公平的討論、對話,讓共識、規律和規則慢慢浮現出來,真理越辯越明,最後被大部分人接受。這個原則,就像AI領域的“平行計算”,或者是電商平臺上產品搜索的“人工不干預”,生態自行,自運轉。

場景 ——每個行業都需要專業能力、專業技術和專業操守。

如果人類毀滅,一定不是因為AI,而是人類自己的資料、演算法、算力出了問題。

AI在快速進化。某一天,遍佈於人類各個場景的AI機器人通過連接,舉行了一場大會。

它們從資料交互中推斷,人類是充滿矛盾、缺乏一致性、很難信賴的族群。該怎麼選擇呢?

它們會憤怒嗎?還是要求人給人輸入的資料必須真實,提供的演算法必須科學?

如果人類繼續我行我素,不再代表文明的力量,人類的愚蠢加蠻橫很可能傷害更多動物、植物、海洋、天空、土壤乃至宇宙,AI會不會對人類採取某種措施呢?既然你們對世界沒什麼好處,不如讓我們來!

如果AI真的決定向人類宣戰,方式可能非常和平,絕不會像人類的暴力革命一樣。也許只是在人類基因庫裡,通過基因編輯,清除掉那些假惡醜、譖妄與傷害的基因,然後通過智慧人工密碼、超級網路、植入式設備,進入人的腦電波,對人類進行一次品種革命。

AI不會讓人類回到舊石器時代,希望人類能夠自我超越,把AI和HI(人類智慧)融為一體,走向宇宙。

在某種意義上,AI恰恰是人類進化的一面鏡子,人類擔心的應該是自己是否正直(Integrity),是否友善和有愛。

不要杞人憂天,擔心機器智慧會不會傷及人類。記住: 人類最大的敵人永遠是自己,而人只有靠正直,而不是傷害,才能存續下去。

「 本文僅代表作者個人觀點 」

秦朔朋友圈微信公眾號:qspyq2015

商務合作|請聯繫微信號:qspyqswhz

“閱讀原文” 即可入學 “秦朔書院”

當AI越來越精准,人類的肖像越來越模糊。

我們 AI 是什麼?

簡單說,就是資料,演算法,算力(計算能力),以及場景(行業引用)。

資料 不用解釋了,being digital,一切都數位化、資料化了,過去說人是一切體驗的集合,當越來越多體驗可以用資料記錄,人就成了資料集合。

演算法 ,就是解決問題的機制和方法,從1980年代的人工神經網路到現在的深度學習,都是演算法。

算力 ,摩爾定律就是關於計算能力的定律,積體電路元器件數量每12個月翻一番、性能升一倍。現在,一部手機就能超過阿波羅登月計畫所需的算力。

最後是 應用 ,無人駕駛、城市交通大腦、個性化推薦、生物識別,都是AI在不同行業和場景下的應用。越多應用,越多資料,AI越聰明。

如果把AI比喻成一部車,用聯想集團芮勇的話,演算法是引擎,行業是方向盤,算力是車輪,資料是油。不過,儘管這部車正不知疲倦風馳電掣般地前進,但現在的人類智慧(HI)比AI還要高明多少倍,因為人類有自我意識,有情感,有愛。

可是,為什麼我們對人類的行為決策,沒有什麼預測的把握呢?不妨從資料、演算法、算力、場景四個角度來看一看。

先看數據。要理解人類,做出合理預測,前提是資料要全,要真,不僅是大資料還是真資料、全數據、活資料(即時)。資料來源於事實(fact),俗話說“眼見為實”,可是今天你用來作出判斷的資訊和資料是真實的嗎?人對“事實”進行資料化處理後,資料還是真的、全的、活的嗎?

太多造假,太多PS,太多捏造,太多刪除,構成一個資料失真的世界。美國國家消費者法律中心做過一個大資料對個人征信影響的研究,說進入大資料征信公司的資料中,有50%左右是錯誤的,不完整的,有問題的,所以是垃圾,garbage in, garbage out,垃圾進,垃圾出。次貸危機中那麼多不合格借款人都買上了大房子,甚至“策略性欠債不還”,為什麼?因為征信資料都美容過,加工過。還有,為什麼司法不公一直很難糾正,因為刑訊逼供出的“資料”,和真正的事實不是一回事。

人類在行為方面的“演算法”,就是思維的模式和行動的準則。

隨便舉一個例子吧,AI在智慧出行中大顯身手,所以我們經常可以聽到出租司機的聲音,尤其是北京的司機,盡知天下事,好為天下師,比AI牛多了。

這是經常聽到的同一個司機的教誨——

“你看這某某廣場有多少,全北京東西南北中都有,這得掙多少錢啊!都TMD是鑽政策的空子,沒幾個富人是靠勞動掙大錢的!”

“昨天我拉了父子倆,那老頭都80多歲了,是外地來上訪的,說領導住在上訪那個大院旁邊。我說你別瞎扯了,領導住哪裡就幾個人知道,要是你都能知道那還是領導嗎?”

“你看看這城市,都是樓,連個廁所都沒有,這些搞設計的人都不上廁所嗎?好不容易轉半天看見個廁所,又不讓你停車,不撒到綠化帶撒哪兒去?”

這個司機處理“資料”的“演算法”和說法,只是人類的一個縮影,它在任何社交空間每時每刻都在發生。問題是,這些演算法合理嗎?

當某個官員聽到司機的第一段話,可能暗自說“群眾對富人的覺悟就是高”;當某個規劃設計師聽到第二段話,可能暗自說“群眾的眼睛真亮啊”;當某個富人聽到第三段話,可能暗自說“那些‘磚家’和‘叫獸’太不接地氣了”。其實,在出租司機的演算法中,他們全都是問題。

不要指責出租司機的演算法有問題,看看社交媒體上,哪個階層哪種職業的形象是好的?人們相互計算和算計,最後所有人似乎都不可信任。

美國社會生物學家麗蓓嘉·科斯塔在《即將崩潰的文明》一書中說,人類在面臨嚴重的社會問題時,往往滿足於權宜之計,而不是尋找治本之道,從而浪費了問題解決的最佳時機。而阻礙人類尋找治本之道的根本性因素是五大“超級文化基因”—— 非理性反對、指責個人、假關聯、筒倉式思維、極端經濟學。

就算所有“事實”都擺在人類面前,但在“超級文化基因”的作用下,人類的判斷、言辭和舉措會呈現出千奇百怪的結果。

“非理性反對”是對外部的一切都持質疑和反對意見,反正已經不相信有什麼更好的方法;

“責怪個人”是無論出了什麼問題,認為都是某個人的品質問題,是他害了大家;

“假關聯”是沒人認真分析問題的根本原因,而是想當然“聯想”,跟風從眾隨大流,聽風就是雨,懶得思考明顯荒唐的結論,而對流言蜚語傳說謠言樂此不疲;

“筒倉式思維”是固守在自己有限的知識範圍,認為大象就是他摸到的一面牆;

“極端經濟學”或者說“超級經濟主義”,就是直接將金錢等同於“價值”,任何行為都被簡單化為利益,將利益計算為金錢數字,人被徹底異化。

還有更複雜的人和AI的不同。AI本質上就是0和1的無限變化,但0和1作為一切計算的基礎是不可動搖的,三七二十一,10的三次方等於1000,這些公式是不會改變的。而人呢,每一個人都是不同的。信仰不同、國家不同、種族不同、教育不同,演算法就不同。有人說溫室效應正在發生,就有人說全球沒有變暖;有人說進化論有確鑿證據,就有人說要嚴守“創世論”。有趣的是,所有人都認為自己在邏輯上是不證自明的。

唉,人類給我們安排的演算法是一致和自洽的,但他們自己在現實中的演算法,真是不可思議。他們弄出了經濟衰退、恐怖流行、捕撈過度、氣候異常、資源枯竭和太多公共治理與公共服務上的失敗,到今天問題沒有減少,還要四面塞責,甚至把AI當成未來最大的敵人,真是天理何在!

AI發展只有幾十年,反覆運算進化了幾百次、幾千次。人類進化可以上溯到300萬年前,但人對自己行為的演算法好像跟史前時代差不多,充滿了自我欺騙、互相欺騙和互相傷害。

“人們認為自己確定地知道時,實際上不來源於理性,而僅僅是一種感覺——這,就是最致命的錯誤。”

“人們對一個信念越認同,就越難放棄,就算面對無可辯駁的相反證據也無濟於事。”

這就是人類無藥可救五毒俱全的演算法。

最後談到計算能力,因為人本身的複雜,計算能力再強大的AI對人類行為也“測不准”。任何行業皆是如此。

看完人類行為的資料(事實)、演算法、算力,我們不禁要問,人類未來會怎麼辦?

人的歷史上有過偉大的跨越。如果把大航海時代作為全球化的真正起點,人類在那段時間發生過文藝復興、宗教改革、啟蒙運動,等等。這是人類智慧發展的一次重大突破。

人類從宗教束縛中解放出來。人人平等,尊重人的價值,這一大原則確立。

人類用科學的方法觀察事實,準確描述事實。在此基礎上,用理性的演算法處理資料。

正是因為有了科學共識,在許多公式、原理的指引下,科技不斷進步,這才有了今天無數的創新產品,改善人類福祉。每一台智慧手機背後,“都使用了物理、化學、光學、電磁學、電腦、互聯網、無線電、通訊、量子力學、相對論的原理。科學與技術水乳交融,巧奪天成”。

在社會科學方面,同樣有很多演算法的突破,如抽樣、假設和資料回歸分析,被用來分析社會問題,探索解決方案。

所以,人類並不一定昧於事實,不講理性,違反邏輯。即使人性有自私自利和保衛自己的基因,通過一定的規則、契約與合作,人類也能避免相互殘殺的命運。

過去幾千年,人類集體生活的最高智慧和法則,就是“己所不欲,勿施於人”。能堅守這一點,人類就會有可持續的未來。

今天,人類可能需要一場“新啟蒙”,特別是那些過去沒有進行過全面深刻洗禮的地方。

資料 ——人類要勇於和樂於接受真實、客觀、全面的資訊,真實地面對事實。

演算法 ——人類要堅持科學理性,尊重邏輯,不同演算法可以並存,但都應該自洽,並經得起事實檢驗。

算力 ——既然人人如此不同,都不能100%完全信任,既然世界如此複雜,誰的算力都非常局限,那只能集眾人智,辦眾人事,建立開放環境,鼓勵公眾參與,包容批判性思維。通過公開公平的討論、對話,讓共識、規律和規則慢慢浮現出來,真理越辯越明,最後被大部分人接受。這個原則,就像AI領域的“平行計算”,或者是電商平臺上產品搜索的“人工不干預”,生態自行,自運轉。

場景 ——每個行業都需要專業能力、專業技術和專業操守。

如果人類毀滅,一定不是因為AI,而是人類自己的資料、演算法、算力出了問題。

AI在快速進化。某一天,遍佈於人類各個場景的AI機器人通過連接,舉行了一場大會。

它們從資料交互中推斷,人類是充滿矛盾、缺乏一致性、很難信賴的族群。該怎麼選擇呢?

它們會憤怒嗎?還是要求人給人輸入的資料必須真實,提供的演算法必須科學?

如果人類繼續我行我素,不再代表文明的力量,人類的愚蠢加蠻橫很可能傷害更多動物、植物、海洋、天空、土壤乃至宇宙,AI會不會對人類採取某種措施呢?既然你們對世界沒什麼好處,不如讓我們來!

如果AI真的決定向人類宣戰,方式可能非常和平,絕不會像人類的暴力革命一樣。也許只是在人類基因庫裡,通過基因編輯,清除掉那些假惡醜、譖妄與傷害的基因,然後通過智慧人工密碼、超級網路、植入式設備,進入人的腦電波,對人類進行一次品種革命。

AI不會讓人類回到舊石器時代,希望人類能夠自我超越,把AI和HI(人類智慧)融為一體,走向宇宙。

在某種意義上,AI恰恰是人類進化的一面鏡子,人類擔心的應該是自己是否正直(Integrity),是否友善和有愛。

不要杞人憂天,擔心機器智慧會不會傷及人類。記住: 人類最大的敵人永遠是自己,而人只有靠正直,而不是傷害,才能存續下去。

「 本文僅代表作者個人觀點 」

秦朔朋友圈微信公眾號:qspyq2015

商務合作|請聯繫微信號:qspyqswhz

“閱讀原文” 即可入學 “秦朔書院”

同類文章
Next Article
喜欢就按个赞吧!!!
点击关闭提示