新智元整理整理:隨一、熊笑
【新智元導讀】據 healio.com 最新報導, IBM Research 採用深度學習, 根據國際上臨床糖尿病視網膜病變量表, 可在20秒內測出病變嚴重程度, 在準確性上取得了最高記錄。 IBM稱, 這項技術將大大提升效率, 幫助醫生篩選出更多的糖尿病患者, 並更快速地指出需要專科護理的患者。 2017年5月16日的北大 AI 公開課第十二講上, IBM 中國研究院認知醫療研究總監、IBM 全球研究院醫療資訊戰略聯合領導人謝國彤親臨現場, 和北大人工智慧創新中心主任雷鳴老師一道, 就 AI 技術在醫療領域的應用展開了深入探討。 IBM 中國研究院認知醫療研究總監、IBM 全球研究院醫療資訊戰略聯合領導人謝國彤來到北大 AI 公開課第12講,
1. 醫療大資料及Watson健康概述
2. 醫療文本挖掘和腫瘤輔助治療案例
3. 醫療影像分析和皮膚癌輔助診斷案例
4. 結構化醫療資料分析和真實世界證據案例
5. 認知決策技術和慢性病診療案例
6. 自然語言問答技術和疾病管理案例
雷鳴老師開場白:今天我們非常有幸請來了IBM中國研究院負責智慧醫療方向的研究負責人謝國彤博士, 謝博士在過去十年都在做醫療方向的研究, 參與IBM Watson的醫療研究, 包括醫療與人工智慧結合之後, 認知、感知和醫療的結合。
類腦晶片走得會更遠
謝國彤老師:謝謝雷鳴老師。 非常榮幸有機會來跟北大的同學和老師們分享一下IBM在醫療方面如何用人工智慧技術來解決醫療問題, 以及我們做過的一些嘗試。 今天, 主要想跟大家分享一些趨勢和具體的案例。 我們用什麼樣的技術解決什麼樣的問題,
其實這場人工智慧運動, IBM 是最早的參與者之一。 在2011年, IBM當時推出了Watson系統, 能夠與人類進行智慧問答競賽。 從11年到現在已經過去六年的時間了,
IBM做 其實醫療, 核心只想解決一個問題——怎麼樣利用資料採擷和人工智慧的技術, 從海量的醫療資料中間去挖掘出證據, 利用這些證據給患者提供循症的個性化醫療服務, 這也不是一個非常獨特的vision, 因為資料分析技術從它誕生的第一天就與醫療有關係, 現在很多人工智慧技術的基礎——比如概率論的發明,
先看看電腦算得過來了。 各位很多可能是學computer science, 學IT的。 隨著不管是像Hadoop、Spark這樣的平行計算, 還是像GPU、FPGA這樣的硬體加速發展,電腦的處理能力有了性能上的飛躍發展。 我今天也借這個機會, 與大家分享在晶片這個領域計算能力的突破性發展。
從圖靈那篇著名的論文證明了電腦是能做出來的, 然後到馮諾依曼從工程上提出了馮諾依曼架構,證明電腦是怎麼做出來的, 這些工作都是在二戰前後(1950年前後)。半個世紀過去了,其實電腦最核心的計算部件CPU並沒有本質變化,與當年馮諾依曼和圖靈設想的沒有太大變化,只不過做的更小了,集成度更高了,計算能力更強了。但是最近幾年,計算能力方面,CPU的計算技術上有了突破性的發展。
第一個我想介紹的話就是類腦晶片。目前,IBM、國內中科院、其他的公司都在做這方面的工作,類腦計算晶片的核心想法就完全突破了以前馮諾依曼通過加法器這樣的一套計算框架,而是從神經元的角度做一個晶片。這個晶片中,沒有我們在通用CPU中看到的東西,而是一個neuron(神經元),然後神經元之間通過神經元的突觸把它連接起來。這樣一個架構天生就是一個神經網路,可以完成這種基於神經網路的一些演算法,比如CNN或者DNN演算法,有天生的優勢。 目前,一個晶片上有上百萬個神經元與神經元之間的連接,synapses(神經突觸)可以達到兩億五千多萬個。這樣一個非常複雜的晶片功耗非常低,只有70毫瓦。大概一個智慧手機的功耗在五瓦左右,它的能耗是你手機的1%,是筆記型電腦的千分之一。所以你可以設想一下,一個擁有上百萬個神經元,幾億個神經觸突的晶片,可以做得如此的小,如此的低功耗,去運行模式識別或者deep learning這樣的task,然後放在各種各樣的感測器上,這就是大家講的邊緣計算。 所有的事情都成為了可能,這是計算晶片技術的一個大突破。類腦晶片,用人腦的神經元架構來去構造晶片。
另外,我想介紹的就是IBM Q就是IBM的量子電腦,名字是IBM Q,聽起來萌萌噠的。
我當時看到圖片的第一感覺是好像看到了四五十年代的傳統主機,大的像一間房子一樣。目前這個機器就在IBM研究院總部。它只有五個量子位,是一個很小的量子電腦。但實現了一個技術上的突破,可以保證五個量子位可以有穩定的輸出。
IBM新的計畫是會推出有50個量子位元的量子電腦。其實我一開始也不太理解為什麼要做50個,後來查了一些量子計算的文章,目前從理論上推算,49位的量子位可以達到現在所有超級電腦的計算水準,如果你能夠做到50位的,就可以beat目前所有的超級電腦,所以會比類腦晶片走的會更遠。可以預見在未來,計算能力的突破是非常可觀的。以後的所有軟體,可以設想有無限的計算能力來支撐,那麼很多想法都是完全不一樣的。
沒有單一資料模型能夠覆蓋多模態的醫療資料
從計算能力再跳回醫療本身,就是第二個因素,就是醫療資料的爆炸,算得過來也有資料可算了。
這是醫療界關於醫療資料的調研,或者從IBM視角來看醫療資料分析包括三大類的資料:臨床資料、基因資料和大健康資料:1)臨床資料,就是醫院產生的資料,一個人去醫院會做檢驗、開藥、拍片,這都是醫院產生的資料,有一個測算臨床資料對人健康的影響有10%;2)基因資料,就是與生俱來的資料,對人的健康影響有30%,有很多人在做基於基因的診斷,包括腫瘤治療。當年女神安吉麗娜朱莉做過一個乳腺切除,也是因為經過基因測序,發現有一些遺傳上的變異;3)大健康的資料,就是目前醫院和基因之外,所有與健康相關的資料,包括飲食、運動、工作、在社交媒體上發洩的情緒。
醫療資料分析就是要從海量的醫療資料中,尋找醫學證據,然後利用這些證據提供更加個性化的基於證據的臨床治療。我們來看一看,從IBM的視角來看,有了計算能力和資料,能做些什麼。
那從IBM角度來看,目前做三件事情:1)做一個醫療資料雲,把醫療資料先存起來;2)做analytics,怎麼對醫療資料進行深度的計算和分析,把它變成模型,一些API;3)做解決方案,怎麼針對不同類型的醫療領域客戶,打造客戶能夠使用的具體軟體和解決方案。
在醫療領域,我們解決兩個問題:一是解決多模態醫療資料的存儲問題。醫療資料是多模態資料,有結構化很好的資料,比如化驗單、處方;還有一些半結構化的資料,比如住院小結、出院小結、入院,病例裡面有大段的文本;還有完全無結構化的資料,比如醫療影像;還包括像基因測序這樣的組學資料;還包括時間序列資料,比如ICU裡會看到一個人插著各種各樣的儀器去測量它的血壓心率脈搏等各種流資料。這些資料是不同模態的,有些資料適合用關聯式的資料存儲,有些資料適用時間序列資料存儲。
目前,沒有一種單一資料模型能夠覆蓋這種多模態的醫療資料,如何有好的雲平臺去處理多模態醫療資料,這是需要解決的第一個問題。
第二個問題就是安全和隱私問題,因為醫療資料的話我們有很多知道很多這種關鍵資訊洩露信用卡資訊洩露,醫療資料的話是非常隱私的個人資料,怎麼樣對這些資料進行保護,這是雲平臺一定要做好的。歐美一些國家都有針對醫療資料保護的法規。根據這個法規,醫療資料約有二十幾項關鍵的隱私資料,比如姓名、住址、電話、身份證號,進入資料管理的時候必須要打馬賽克去隱私,同時對資料進行增強式加密,資料即使被洩露也是不可解密的;對所有的資料訪問(誰什麼時間能訪問什麼)都要有一套嚴格的存取控制,通過這樣的方式來保證資料安全性。
簡單而言,分析層也做兩件事情。
第一是對多模態醫療資料的分析,不管是結構化病歷資料、影像資料,還是文本資料、時間序列資料,不同的資料不存在單一的技術能夠對所有資料都進行一個很完美的分析,所以目前針對不同類型的資料有不同的分析方法,有些適合用深度學習的方法,有些採用時間序列的方法,有一些適合用回歸分析的方法,分類的方法,聚類的方法。
第二,分析是與醫療領域相關的,醫學裡有一些特定的問題,不是去分析照片是誰或者什麼,而是分析資料裡疾病風險的因素是什麼,怎麼樣做疾病的預測和預防,怎麼樣對患者進行精准分群,可以對患者進行個性化治療或者有不同的治療方案時哪種方案對患者反應比較好(treatment effectiveness),包括影像識別怎麼自動發現影像中間的病灶,都有非常強的醫學知識。從解決方案的角度來看,醫療是一個非常複雜的行業,醫院、醫生、藥廠、醫療設備製造商、健康管理機構、醫療保險公司,他們的訴求是不一樣的,不必須要針對不同類型的客戶做出不同的解決方案,可以利用底層的雲平臺和分析技術。在解決方案裡,我們有針對像醫院類型的醫療機構的解決方案,包括腫瘤的個性化治療,Oncologyand Genomics,醫院影像(medical imaging)的分析。還有針對藥企做新藥發現和上市藥物有效性、安全性的分析,還有幫助健康管理機構,對常見的慢性病人群(高血壓、糖尿病、慢性腎病)以及多種併發性慢病的患者進行管理解決方案,也有幫助醫療保險機構合理地valuedbased care,按照價值來付費,來進行疾病管理。在目前的平臺上,IBM通過過去兩年的收購,目前有超過2億美國人的醫療保險資料,有超過1億美國人的電子病歷資料,有超過10億張的醫學影像片子,有美國幾十個州的慢性病管理資料,把這些資料關聯起來做分析,就會發現非常有價值的,任何單一資料來源都無法發現的一些insight或者evidence,可以支援上面各種各樣的應用。
個性化腫瘤治療助手和腫瘤基因治療助手
接下來,給大家來介紹一些具體案例。
第一個我想介紹的是沃森個性化腫瘤治療助手。
首先腫瘤是一個非常惡性的疾病,目前很多腫瘤也沒有什麼好的辦法,但是危害非常大的。以中國為例,每年新發的腫瘤大概超過 400 萬,有一些特定的腫瘤,比如與消化道相關的食管癌胃癌發病率很高,全世界每年新發胃癌有超過40%是在中國。同時,腫瘤治療很困難。一方面疾病本身比較困難,另一方面治療方法層出不窮,各種靶向藥物,各種新的治療方法不斷的出現。如果想要做一個好的腫瘤醫生,每月要讀超過1萬篇與腫瘤相關的新的科研文獻,這是不可能的。這個解決方案的核心技術是運用自然語言理解技術,讓機器去代替人去讀書。這個系統讀了兩千多萬篇文獻,應用自然語言理解抽取裡面的疾病症狀、診斷治療、患者病情,然後構成非常複雜的知識圖譜。基於這樣的知識圖譜,當患者問診,系統會自動從患者所有的既往病歷資訊中,包括檢查報告、片子、檢驗結果、病史的描述,自動抽取上百項的關鍵資訊,借助後臺的知識圖譜進行一個很複雜的推理過程,給出治療的推薦治療方案,包括不同的方案與患者的契合度,這樣的資訊可以説明腫瘤科醫生更好地用最新的最好的治療方案,為患者提供個性化的治療。Watson Genetics從基因維度切入,與前面解決方案一起解決腫瘤治療。
因為腫瘤本質上是一種基因變異導致的惡性疾病,醫生們就想能不能通過直接用藥物打靶,靶向作用到變異的基因來控制腫瘤。
這個系統也很簡單。拿到一個患者的二代測序結果後,通過分子的profiling,在患者所有的變異基因全部找到之後,進行很複雜的pathway分析。Pathway主要通過在幾千萬篇文獻中,學習各種藥物靶向、基因變異、蛋白質作用過程等方方面面,構成了很複雜的網路,然後推理,給出相應的靶向藥物的治療推薦。前一階段有個新聞報導,日本東京大學有一個患者得了非常罕見的白血病,然後沒有醫生沒有見過,沒有辦法確診,還甚至進行了誤診。借助這樣一個系統,很快就找到患者可能得的白血病,同時推薦了一些靶向藥物,挽救他的生命。
Watson先讀了很多書,包括300本期刊,200多本教科書,幾千萬的文獻。這就是實際系統使用的介面,來了一個患者之後系統會推薦,每一行是一個治療方案,綠色的是最好的治療方案,包括放療、化療、手術治療、藥物治療、各種不同的治療。同時,每一種治療方案,系統會給出更多的資訊,比如治療方案,愈後效果,是否有毒性,毒性是什麼樣的。這些資訊並不靠醫生手工提前錄入,而是由系統自動從幾千萬份文獻中,利用自然語言的理解技術,把這些關鍵資訊抽取出來構造成一個知識庫,然後推送到醫生面前。
其實,很多醫院進行腫瘤治療時,會請很多專家給出自己的治療意見,包括治療方案的優缺點。這個系統就相當於一個讀了所有的最新文獻的專家,把不同的治療方案包括副作用、不同治療方案藥物之間的相互作用,生成了一本大概有三四十頁的報告,提交給醫生,幫助醫生去做出針對患者最有利的一個治療方案。
醫學影像
下面想介紹的案例是現在非常火的醫學影像。醫學影像極大地推動了醫療的發展。最早醫生看病通過聽診器診斷,後來出現了X光,然後出現了更複雜的像核磁、超聲等各種簡單診斷設備。這些影像設備可以説明醫生,更好地看到患者體內的資訊,甚至包括病理,通過組織切片用高倍顯微鏡看到細胞層次的變化,做出更加準確的一個判斷。
影像對醫學的作用太大了,所以在03年的時候,發明核磁共振的一個物理學家和一個化學家竟然得了諾貝爾醫學獎,核磁共振極大的顛覆了醫療診斷和治療。影像也是多模態資料。有一些比較常見的二維影像,比如眼底影像,皮膚癌影像,或者消化道的胃鏡腸鏡;還有一些是三維影像,比如ct或者核磁通過向切片掃描的方式,對人體進行上百次的掃描,生成一個完整的三維影像。能夠很好地用來做各種診斷和治療;還有一類是這種病理影像,主要做很多腫瘤的治療,它需要從疑似腫瘤的部位取一個組織,然後進行切片,放在高倍顯微鏡下,都是幾萬*幾萬圖元的高解析度的影像。往往一張病歷影像的片子可能就有3G-4G的大小。這些影響雖然可以提高醫療水準,但是分析同樣很困難。協和醫院想去約一個核磁或者ct可能需要一周甚至一個月的時間。機器其實是不休息,人要休息,看不過來。現在影像分析面臨的一個很大的問題——三甲醫院的醫生的話有大量片子他看不過來。同時,有一些消化道影像,比如膠囊機器吞到肚子裡,一次拍一個視頻出來,做一次檢查生成3萬到5萬張影像,有病變的部位不超過30張,要從3萬張中間去找到那30張,那就是大海撈針,就要靠醫生花大量的時間去過濾掉那些無效的片子。所以影像技術的進步對醫生來說最迫切的需求就是,怎麼樣利用識別技術自動發現病噪,提高他看片的效率。
機器看片原理很簡單。首先,用一些比較經典的一些影像分析或者模式識別的方法,類比一個醫生的看片過程,看一些視覺特徵。因為很多病變部位的位置、大小、顏色、邊緣形狀都有一些視覺特徵,利用這些視覺特徵可以説明電腦判斷出來是不是一個惡性的肺結節,或者是不是某一種皮膚癌。同時,電腦可以利用複雜的卷積網路,在圖元層級上看圖元的變化,在圖元層級上進行計算,比人看得更細緻。可以通過構建多層的神經網路去提取那些隱含的特徵資訊,利用這樣的資訊做判斷。
電腦角度來可以看多模態的資料。它不光看影像資料,還看病例資訊、基因測序結果,將多模態的資訊融合在一起,可以達到一個更好的效果。我們做過很多實驗,如果用影像分析疊加其他模態的資料,比如將病歷資料、年齡資料、歷史病例等關鍵資訊抽取出來之後,病變識別的精度可以直接提高10%以上。
我這邊給大家介紹兩個例子,一個是黑色素瘤的。
我們將1萬張影像有標記的影像交給機器。它利用深度學習的技術學習之後,構建了一個模型,然後再從測試集裡面拿出3000張讓3名醫生和電腦一起來看。人達到的精度大概是84%左右,而電腦可以達到97%。不止是IBM,很多其他公司電腦大概做到90%到95%。
另外一個例子是消化道影像。
每一次檢測生成的資料特別多,有 3萬到5萬張,同時裡面有很多不均衡的資料,若想能夠自動將這些出血點檢測出來,就需要遷移學習技術,很多資料的預處理技術,包括data augmentation或者data resampling,然後構建出來深度學習的網路,達到更好的識別精度。
我給大家看一個針對皮膚癌的小視頻。用手機或各種有攝像頭的移動設備,拍一下手上的某一個色斑,上傳到後臺的雲伺服器上,裡面已經有一個訓練好的模型。這個模型主要就是做一個分類,判斷一下影像是不是黑色素瘤,經過後臺計算之後會給出一個結果。判斷它不是黑色素瘤,顏色都是比較淺。同時系統會自動把已知的一些確診的相似的影像返回回來,説明醫生或者患者做一個更好的判斷。
實驗者也還選了一個已知黑色素瘤的一個確診影像,這個系統中出現紅色告警,說很大可能程度是一個惡性的黑色素瘤,同時會把一些類似的影像都會返回回來,説明醫生來做一個判斷。
真實世界證據分析
下面我想給大家介紹的案例的話叫真實世界證據分析。 它是一個醫學界的詞,對應的詞叫RCT,雙盲隨機對照臨床實驗。目前判斷一個藥或一個治療方案是否有效,必須要做RCT實驗,證明藥效或者治療方法的有效性。一個這樣的實驗平均要花十年以上的時間,要花10到15億美金,而且不超過10%的成功率。RCT是一個非常耗時耗力耗錢的方式,真實世界證據就是跟它做對應的。
RCT實驗一般會組織幾百個人,比如五百八百人,分成組去進行實驗,要積累資料。同時每天其實生成大量的醫療資料。以中國為例,一年就診的人次接近70億人次,相當於是全國人民,每年看五次病,當然有一些老病號。70億次就診產生了大量的臨床資料,但是這些資料並沒有被很好分析,都散落在 醫院的各個資訊科機器上面。這些資訊其實可以被用來做真實世界的挖掘,就是利用真實世界的資料,做更好的疾病治療、預防等。
真實世界證據就是真實世界中資料,包括病歷資料、醫療保險資料、疾病資料,輸入進來,產出各種模型,比如中風病人的再中風預測模型,或心梗病人的死亡風險預測模型,或某種藥物治療有效性的模型。這樣的模型是通過這樣的pipeline得到的。我們發現,第一可以有一個通用的pipeline去解決真實世界資料分析的問題,因為過程重複,包括導入資料,資料清洗和整理,構建患者人群,抽取特徵做建模。很多是通用的,比如疾病風險預測分析,患者的相似性分群分析,治療有效性分析,患者依從性分析。這樣的分析的話都可以變成一些可重用的模組,作為一外掛程式在平臺上來做模型生成。比如,咖啡機放入資料就會生成咖啡,裡面有很多參數要調整,你是要喝美式還是拿鐵還是摩卡。我說起來比較簡單,但是就是這麼一個過程,我給大家舉兩個例子。
第一個例子的話是我們做的疾病風險預測的一個例子。
這個資料庫裡有45000個心梗病人,有超過800個變數去描述病人的基本資訊,包括它的治療資訊,臨床資訊等。醫生想知道哪些因素會導致患者出現院內的死亡,每個患者院內死亡的可能性有多高,這就是一個典型的疾病風險預測的問題。那這個風險模型以前是有的,TIMI模型是目前醫學界公認的最好的心臟病的風險預測模型,AUC大概是在0.76,利用我們的方法AUC可以做到0.87,同時我們發現了24個新的風險因素,有很多風險因素的話是非醫療性質的,比如說一些社會性的因素或者就診醫院的一些因素,比如說家庭幸福的人不容易死。
醫生常常也做這類分析,他們一般會有自己的假設,從800個量裡面挑出15個20個,然後從4400萬個人裡面挑出一千個人,用經典統計方法去做單變數多變數的回歸,去看是不是有顯著性,這是目前醫學統計常用的方法。但是用這種人工智慧方法去做時,我們就會用很多新的一些方法,比如做新的特徵抽取。舉個例子,我們會用共生的模式挖掘,去看這個患者既有高血壓又有糖尿病共病,會不會是一個更加有意義的風險因素。這些因素以前醫生不會考慮,是我們通過一些挖掘的方法得到的。包括一些共症共治,比如病人同時服用A藥B藥進行治療,可能是一種很好的保護性因素,以前不會考慮A加B,或者A加B加C這樣的問題。還有包括一些生理指標,比如血壓。
醫生首先有自己的家屬,從800個量裡面挑出15到20個,人群他不見得用4萬個人,裡面挑出一千個人做單變數多變數的回歸去看統計是不是有顯著性,這是目前醫生使用統計常用的方法。
用人工智慧方法來做的時候,比如說新的特徵的抽取,舉個例子我們會用一些共生的模式挖掘去看,這個患者可能既有高血壓又有糖尿病,這樣的一種共病可能是一個更加有意義的風險因素,這些因素以前醫生不會考慮,這是我們通過一些挖掘的方法得到的,包括一些共治,比如說這個病人同時用了A藥和B藥進行治療,以前醫生可能用A或者B,並不會考慮A+B,還有像包括一些生理指標也是這樣,比如說血壓當前值是多少,如果這個病人血壓高壓是150,他是從90連續漲上來的還是一直持續到150,還是從180掉下來,醫生不管,醫生只通過一個時間來做判斷,其實資料時間序列的資訊沒有很好的利用起來,這些都是用人工智慧的方法,不管用RN建模或者其他分析的方法,可以很好的捕捉到資料之間時間序列的資訊,利用這樣的資訊可以做更好的預測。
我們最後發現我們把所有的因素,我們不光發現哪一些因素有影響,同時每個因素的權重包括它的分類都列出來了,醫生就會說這個病人因為病情太嚴重導致死亡的,還是治療不給力導致死亡的,同時每個病人都會按照風險排一個序,橫坐標是一個病人的患者號,所以高風險、中風險和低風險所有病人一目了然,這樣可以幫助醫生更好對病人進行管理。
第二個例子,我想介紹的是患者精准分群的分析,這個也是精准醫療裡面非常重要的,就是什麼叫精准?有兩個極端,一個極端觀點認為每個人都是不一樣的,因為每個人的基因都是不一樣的,每個人基因變異也是樣的,作為個體化治療要個性化到每個個體,這是一種很好的理想,但是現在做不好。
另外一種人群治療,比如說二型糖尿病,這是一個定義,針對這群人怎麼治?目前很多精准醫療希望在這兩個極端之間找到更多的重點狀態,以中國為例我們心血管的病人2.6億,糖尿病病人1億,這1億人肯定不一樣,他肯定不是1億種情況,也肯定不會是一種情況,怎麼樣在中間找到一個更合理的分群個性化的治療,這裡面我們做的一個案例是針對房顫病人做卒中的預防,房顫本身是無害的,但有病人會導致惡性的事件,比如說心梗或者腦梗,醫生要做的事情就是當來了一個病人之後要做判斷,要判斷這個病人是高危還是低危,如果高危病人要怎麼治,是不是要吃法華林去進行中風的預防。
但是如果這個治療就這麼簡單也就罷了,但是很多治療都是有危害性的,以法華林為例,這個治療如果用藥過量會導致腦溢血。所以醫生每天都會面臨一個選擇,吃還是不吃,這對他們來說是一個問題。按照他們的經驗他們知道其實以前可能有一些病人不該吃的我給他吃了,但是很不幸用以前的模型不夠精准,發現不了那些不該吃的病人,我們用傳統的醫學模型認為是高危的病人,不同中風的發病率,看完這個圖之後醫生特別激動,發現了第一點,有一群人過度治療了,這群人傳統醫學方法認為是高危的,其實並不是高危的,只不過以前的模型無法捕捉到細微的區別。
同時這群人是用某種藥物。針對這群人,如果吃這個藥物中風的發病率是9%,如果不吃則接近18%,這群人對某種治療方案反映特別好,這個治療方案在整個人群上是沒有顯著差異的。所以這就是精准的分群的方法,能夠説明從病例資料中間挖掘出來更精准的患者的分群,然後幫助醫生做一個個性化的治療。
它在方法上有什麼特點呢?其實分群也不是一個多麼新的方法,分群傳統上是一個無監督的學習,分群聚類出來很多結果臨床上是沒有意義的。我們有一些方法引入一些監督信號。
所以這就是一個精准的分群的方法,能夠説明從病例資料中間挖掘出來更精准的患者的分群,然後去幫助醫生做一個個性化的治療。患者按照中風的發病率分的非常開,這個方法核心是幹什麼事呢?
它會判斷哪一些因素對患者聚類是非常重要的,哪一些因素比較重要,它要自動的挑出來,同時,每個因素的權重是多少,他就可以把患者分的非常開,利用這個方法它就可以挑的非常開。
認知決策
下面我想介紹的叫認知決策,其實這個決策知識也不是新話題,從人工智慧誕生的第一天起就有專家系統了,專家系統無非就是如何把專家的知識變成電腦可以執行的規則,所以最早的人工智慧,五幾年的時候斯坦福做了一個人工智慧系統,當時他們針對血液病的治療,可以對血液病治療進行分析的,這就是前面的第一步。如果各位有瞭解,醫療裡面有很多臨床指南,或者臨床路徑,這些都是醫生總結出來的一些知識和規律。
是不是這樣就能看病了呢?如果這樣就能看病的話,醫學院的醫生讀完之後就可以當神醫了,現實不是這樣的,從書本中間學習到知識是有缺陷的,往往學習到的是比較抽象的,實際使用的時候有各種各樣的問題。比如說以糖尿病的治療為例,你會看到,當指南告訴你說這個病人血糖控制的不好,目前使用了雙胍類的藥物還是控制不住,他應該用雙胍和磺脲類聯合治療,到底怎麼聯合。
我們開始嘗試另外一條路徑就是用資料驅動,用一些機器學習的方法,不管用什麼樣的模型,可以用各種各樣的模型去做基於資料的推薦,簡單的說就是你看到類似的病人都是怎麼治的,治完之後效果好不好就可以得到類似的治療方案,這樣出來的結果的好處就是,所有知識都是從資料中間學習出來的,它的資料推薦最接地氣。當然它也有缺點,它的缺點是資料往往都是有漏洞的,你的知識是從這個資料上學習出來的。
另外,很多電腦的模型是黑盒子,它對醫生來說不可解釋,你不能給我一個模型告訴我說怎麼治,也不告訴我為什麼,我們這個過程當中發現了一個真實的例子。我們以前拿了幾萬糖尿病病人超過5年的資料。我們發現,降糖方案最好的方法到底是什麼?最好的方法就是上胰島素。醫生說你們不是開玩笑嗎,我們治療分一二三四線,胰島素是最後的,一二三線藥物控制不住的時候才會這樣,這背後是有一個生物學的邏輯的。對電腦來說,效果最好的就是上胰島素,所以後來我們說,其實你看這個過程,特別像一個醫生的成長過程,一開始是讀書,他能夠把一些理論的框架和一些非黑即白的知識挖掘出來。但是真實世界很複雜,它複雜在哪呢?就是複雜在資料這一塊,因為醫療不是非黑即白的事情,面對一個患者的時候,往往是有多種選擇的,每一種選擇都有優缺點,並不是說存在一個單一最好的選擇。每一種選擇應用到患者身上之後,它的效果也是不確定的,這個患者好,那個患者不好,這簡單來說就是概率。
所以其實好的醫生畢業之後通過大量的學習,看老醫生看病,在自己腦子裡面構建了一個概率模型,知道這種情況下會有這幾種選擇,哪一種選擇靠譜可能性大一點,這恰恰是電腦非常擅長的。我們最後做出來的這個方法就是用指南和臨床知識作為一個骨架,從資料中間學習各種從疾病的篩查、診斷、治療、預後相關的概率模型,把它作為血肉,添加到指南的骨架之後,就變成一個非常完整的臨床決策的知識庫。
最後,我再給大家介紹一個例子,這是一個技術,這個技術它到底能怎麼用?我們把它用到慢性病管理領域裡面,中國現在的慢性病患者超過3億,包括2.6億高血壓,1億糖尿病,1億系統疾病,還有慢性的腫瘤患者,這些患者,靠的是大概100萬的社區醫生來進行管理。面臨的現狀就是管不過來,所以這些醫生,他們一年大概接受兩天的培訓,幫助他們瞭解最先進的治療方案,而且他們一個人不是管一種病,他們一個人至少管20種病以上,這對他們來說是一個巨大的挑戰。
從電腦角度來看,我們幫他們做什麼呢?我們選擇了兩個場景,一個場景是做疾病的預防,我們幫助醫生把那些有併發症風險的高危患者盡可能挑出來,比如說糖尿病患者可以併發到超過30萬併發症,怎麼樣可以把那些還沒有得中風,還沒有得心梗的糖尿病患者及早的發現出來,讓醫生進行一些預防性的手段,這樣做預防能降低病人的痛苦,同時也降低醫療的成本。
第二塊就是治,這個角度我們主要考慮,怎麼樣利用這種臨床指南的知識,和我們從幾十萬、上百萬的這種糖尿病病人治療既往的資料中間挖掘出來的證據結合在一起,給醫生一個針對當前患者最好的治療方案。這一塊我也給大家看一個小的視頻,這是我們實際使用的情況,這個情況你可以看到,我們目前這個系統跟醫生用的電子病例做了一個整合,目前有6000個病人已經使用這個系統進行治療,每個月系統生成的推薦接近2000,而且還在持續增長。可以看到,醫生接受新鮮事物的情況很有意思。這個社區的醫生,他一開始不願意接受新鮮事物,慢慢就接受並達到了很好的使用水準。
這個系統類比社區醫生的一個工作平臺,醫生還要進行隨訪,這個系統會自動把患者按它的風險給他排高中低排出來,同時為什麼這個病人有風險,比如說這個病人為什麼有中風的風險,風險模型是什麼,有哪一些資料導致他有這樣的風險,我們會幫助醫生把風險因素找到,同時給他做一個治療的推薦,這個病人應該降糖、降壓、降脂,包括劑量頻率等等,都是從資料中間挖掘出來的,類似的病人都用了什麼樣的治療方案,效果怎麼樣,把這樣的資訊推送給醫生,這裡面所有的證據,針對治療系統發現說這是指南裡面的證據,包括有接近26%的病人用了這樣一個治療方案,這些病人都是有糖尿病,高血壓年齡是在55到75歲,其中很大部分人用了這種治療,另外一部分人用了另外一種,包括每一種治療方案的效果。這些資訊從資料中間挖掘出來的和指南知識結合在一起推送給醫生,幫助他做一個更好的慢性病的管理。
降壓藥有沒有按時吃,血糖有沒有變化,如果發現血壓特別高,醫生就會督促他進行更好的降壓管理,血糖升高了也降血糖,這些專案以前是靠人幹的,500萬人口有100萬進行這樣的隨訪,怎麼可能隨訪的過來?所以要招很多護士,包括健康管理機構提供健康管理服務,培訓護士來幹這個事,這依然是大量人工的工作。
所以我們在想,我們能不能利用兩個關鍵技術,一個技術是對話技術,我們不是做一個通用聊天機器人,而是做一個虛擬護士,這個護士能夠按照護士的隨訪的過程,針對什麼高血壓、高血脂、高血糖這樣的病人去進行自動的隨訪,去採集他相應的資訊,同時的話呢,去生成預警,如果系統發現病人有情況的話。
第二個技術是QA技術,就是問答技術,中國有很多醫患溝通的網站,不管是春雨還是好大夫,這些網站上面大量的患者在問問題,很多的問題跟飲食、運動、作息、藥物的副作用、藥物之間不良反應有關。其實並不是那麼核心的診斷和治療問題,但這些問題也靠人工來回答的,所以我們在用一些 QA 的技術來做更好的患者教育,幫助患者最及時的找到可信賴的資訊。
但是,患者問的問題是五花八門的,什麼病名字寫錯的,藥名字寫錯的,各種大爺大媽會有各種口語。你怎麼樣做回答?這是非常核心的技術,我們不同層級都用了深度學習的技術,包括用CNN做問題分類,去做問題的相似性匹配,最後可以達到一個比較好的Top1的結果。
系統會形成一個隨訪的報告,這個隨訪的報告包括採訪採集到的關鍵的體重或者血壓血糖的資訊,包括患者用藥的資訊,所有的資訊都會自動生成一個報告,幫助管理師更好的對患者進行疾病管理。
同時,系統會利用決策的功能,當發現有風險的時候,會及時通知患者和醫生讓他去醫院就診或者對患者進行及時的干預,避免後面釀成大禍。
時間關係的話,我今天的分享大概就是這些。最後再講一點,一個模型、演算法,給它一堆資料,一跑就能出來一個治療或者診斷的模型。一定要把醫學的知識和靠譜的分析手段結合在一起,很謹慎的選擇資料,選擇人群和選擇你要分析的任務。做這個事,一句話,要心存敬畏,這樣才有可能做出靠譜能用的醫療 AI。我今天的分享就是這樣,謝謝大家!
精彩對話
雷鳴:非常感謝,講的特別精彩,基本上涵蓋了我們說的整個醫療的過程,包括疾病的預防,包括得病之後的診斷,輔助的治療方案,以及慢性病管理。涵蓋特別多,信息量很大,也講了IBM在這一塊的進展,好多東西我覺得都是第一次學習到,特別好。
基於剛才你講的東西,我想進一步的瞭解一下,你剛才講到IBM在做神經網路晶片,我想大概瞭解一下神經網路晶片和GPU在定位上,神經網路計算晶片未來是通用的還是專用的,是要替代GPU在深度學習上的計算呢?還是在遠端?
謝國彤:首先我不是做硬體的,但我可以試著回答一下這方面的問題。大家可以看到,除了CPU之外,現在有GPU、FPGA這樣的專用晶片,可以輔助CPU做計算的過程。這種類腦晶片的定位,首先它不是要來替代計算型任務的,CPU該幹的事還是CPU幹,類腦晶片不是取代電腦幹的事,從它的設計來看,它本身就是一個神經網路,是靠神經元和突觸,很多普通的計算任務它不擅長,但是它擅長的workload是 neural network 這樣的workload ,所以我覺得首先從任務上來看它和經典的CPU、GPU或者FPGA有一個任務上的切割,這是第一點。
第二點它特別強調低功耗,低功耗就會偏向邊緣計算,可以想像有互聯網或者感測器這樣的產品,可以把訓練好的模型運行在這樣的晶片上,這樣的晶片可以想像到,最早聽他們做的實驗,做了一些機器昆蟲繞著矽谷研究院飛,功耗特別低,它可以飛很久,可以採集風、溫度、濕度這樣的資訊,做出這樣的方式之後,可以把有效的計算推算到遠端,可以在遠端做一些事情,不需要耗大量的計算,這樣可以在邊緣計算這個角度,我覺得它可以發揮更好的價值。
雷鳴:這一次人工智慧火起來,深度學習功不可沒,在圖像處理上有一個發展之後,最近一發不可收拾,我想瞭解一下IBM的研究已經做了十來年了,最近來看深度學習這一項技術在整個醫療領域裡面,尤其是醫療科技上,能帶來什麼樣的突破性的發展?這項技術和其他傳統的學習演算法之間怎麼融合,能夠推動整個AI+醫療的發展?
謝國彤:首先,我覺得就是深度學習在醫療應用的領域,還處在一個開始的階段,大家比較容易想到的是說把深度識別、深度學習在一些其他領域成功的經驗搬到醫療領域裡面,所以最直接的就是醫療影像,在醫療影像領域目前用深度學習用的最多的,效果相對來說也是最好的。這可能和影像資料的特徵有關係,它從空間上來說是一個比較稀疏的資料。在其他的一些領域,比如說像病例資料領域,是一個非常稀疏的資料。在這樣的資料上,深度學習的工作都在嘗試階段。我看到的就是我們自己做的,包括我們看到的一些報導,絕大部分做深度學習的,跟傳統的方法比,它的提高都是小數點後第二位甚至第三位上的提高。
但是,我覺得深度學習有一個端到端的學習,這是一個非常好的東西,它有一個潛力,可以把多種學習方法融合在一起,這是我們現在看到的一個非常有趣的點,我們可以在這個中間疊加一些其他的,被證明在這上面比較有效的方法融合在一起,這是我個人認為比較有前景的方向。
主持人:我們做醫療比較有挑戰的就是醫學資料的獲取,或者說和醫院的合作,因為我在美國的時候,關注這個也很久,我在美國,應該是兩三年前,當時跟斯坦福的李飛飛教授一起喝咖啡聊發展的時候,她表示對醫學這方面也很感興趣。但是她告訴我說,即便是在斯坦福校內,她如果用斯坦福校醫院的資料,也需要申請,也需要通過論證,她說她當時提了一個專案,討論了一年好像還不行,所以看起來醫療資料的合作的難度還是比較大的。對IBM來說,怎麼跟醫院打交道?這一塊你有什麼經驗?或者說你對這一塊未來發展是怎麼看的?
謝國彤:你剛才講的李飛飛所說的過程,所有做醫療研究都要經過這樣一個過程,通過倫理委員會,證明說你這個研究是符合倫理的,然後不會侵犯患者的隱私,不會危害到患者的生命安全什麼的,醫療跟電商是不一樣的,是人命關天的事,這是第一點。
第二點,在美國其實有很多資料,因為它的法規比較健全,知道什麼是能做的,什麼是不能做的,比如說我剛才提到IBM收購了很多資料,那些資料都是合法在使用的,你只要把隱私資料去掉了,這些資料都是可以合法使用甚至交易的。
在美國我看到幾億人的保險資料,上億人的病例資料,這些資料是可以分析的,這是在美國的情況。
在中國,我們可以看到,其實傳統的醫院是資訊孤島,不要說醫院和醫院之間,比如說301和協和,它的資料肯定是兩個孤島,甚至在一個資料集內部,它的系統都是逐步建立起來的,先建一個掛號系統,再建一個拍片系統,再建一個病例系統,甚至這些系統之間都是孤立的,這都是現狀。在國內來看,過去5年,衛計委,就是以前的衛生部,花了很多的力氣做系統的聯通,在區域級別把大醫院、中醫院、小醫院資料盡可能集中在一起,做了很多資料集成的工作。
第三點也是最近的消息,衛計委在江蘇和福建兩個地方試點國家的大資料中心,從簡單的資料獲取現在走向了怎麼樣分析利用這個資料,讓這個資料發生價值。所以我的感覺,整個趨勢是在往資料越來越集中,然後資料分析的價值越來越被看到和認可這樣一個趨勢在走。
雷鳴:感覺美國剛才如謝老師講的,有一些法律法規,反正在這個法律法規之上,符合的很容易就可以做了,但是如果想更深一點,估計這個難度就會非常大,需要各種認可,各種簽字,中國這一塊現在管理相對來講正在規範化,所以現在,如果致力於做這一塊創業或者研究也好,可能更多的還是要跟咱們的醫院真正有資料的地方要去做一些合作,能夠得到醫院某種支持會更好一點。
謝國彤:我再補充一點,除了國家在搞國家大資料之外,習大大投了600億做精准醫療,所以很多醫院的大教授、大專家現在有很多興趣來做這方面的工作。所以其實在中國的很多合作,也是這方面的專家,他們有資料,也積累了一段時間,希望利用一些新的人工智慧的方法來發揮資料的價值。
雷鳴:看來正好是風口,我們接著去探討這個事情,我這一塊也做了一些研究,像醫療資料,整個來講,它的整體的品質,相對比較差一點,說實話我看過一些病例系統,它的記錄、自然語言很不完善,有時候甚至找一些更高級的醫生看,記錄還發現有很多不一錯誤的地方,我們叫品質比較低的資料,就是說IBM在做的過程中,或者說您個人對這種情況,對往後的研究有什麼樣的建議?
謝國彤:這一塊關於醫療資料品質問題,我稍微多說兩句,因為我打交道的醫療資料比較多,醫療資料中有品質好的,也有品質差的,影像資料相對來說是品質比較好的,因為國內一般用的都是國外的標準,影像資料的品質反而比較好。有一些資料像病例資料,像疾病登記庫的資料,比如說中風或者高血壓、糖尿病權威機構、國家什麼中心,他花很大的力氣經過三五年搜集的資料,這樣的資料一般在三五萬人,每個患者都在1500到2000個變數,這些資料品質也非常高。
還有一類是醫療保險資料,醫療保險資料它的品質也很好,因為它很連續,不管在A醫院看還是B醫院看,最後通過醫療保險把所有的資料都關聯起來了,這是它的優點。
相對來說病例資料又再細分住院和門診病例,住院資料是品質比較高的,因為很多醫生的科研是基於住院病例上面再加工,所以他會花很多力氣,包括很多醫學院的學生下午的時候在住院科錄病例,這些資料品質都比較高,真正病例比較差的是門診病人,每個病人不超過5分鐘,醫生沒有時間錄這個資料,醫生也不覺得這個資料有價值。
資料品質確實是良莠不齊的,一開始做這個方面要訓練一個好的資料集和一個好的問題,如果一開始選了一個特難的問題,選了一個特爛的資料集,可以保證你不會有特別好的結果,可能是你的問題和資料集沒有選對。
回過頭來再講針對大量吸收的資料,其實目前也有一些技術上的探 索,就像是做資料的萃取,傳統在統計裡面有資料補全的方法,對缺失的資料進行補全,醫生覺得你補了之後不可信,現在有很多強調資料萃取的方法,怎麼樣給你一百萬的資料,能不能提煉出10萬人是連續性比較好的資料。這裡面其實還和目前比較火的GAN網路有關係,現在有一些人在嘗試,這個資料甚至是生成的資料,但是我用這個資料是從上百萬、上千萬資料中間學習出來的一個資料的分佈,有了這個資料分佈之後生成的資料,用這個資料去訓練模型,甚至可以訓練出來一個靠譜的模型,所以有很多人在做這方面的嘗試,選擇好的資料集,同時咱們國家自然的資料品質也在提高。
另外一點,也有一些技術的手段,可以再彌補一些資料品質的缺失。
雷鳴:好,剛才提到的就是我們現在超級火的對抗生成。再問一個問題,醫療這個事情,因為我們很多做技術的小夥伴,創業的時候經常說,有這麼一個事情,幾個人就去做了,包括拿幾個資料集做做做,醫療的事情最後總要落地的,一落地就要到行業,一到行業突然就發現兩眼一抹黑,你在這個領域做了很久,能不能大概講一下一個醫療科技最後能真正的去服務大眾造福百姓,這個路徑大概是什麼樣子的?中間有哪一些挑戰哪一些門檻,給想做探索的同學一些借鑒。
謝國彤:其實醫生是一個非常嚴謹的一個群體,他們每天面臨的是生與死的抉擇,讓他們變得非常謹慎,任何一個新的技術想推進到醫療領域的話,一定要有一個非常嚴謹的過程,一步一步得到醫生的信任。我之前聽到他們講一個故事,醫生花了一百年時間才接受了聽診器作為醫療的設備。
從目前來看,基本上這是有一個過程的,第一步你可以基於一些不管公開資料集還是通過跟醫生合作,基於一些歷史資料可以進行一些建模,不管你做什麼,首先證明你這個模型在歷史資料上是可以工作的,這是第一步。
第二步需要進行外部資料驗證,就是你必須要拿到一些完全從協力廠商拿到的資料,這樣的話,醫生可以進一步的加深對你這個模型的信任。通過協力廠商的資料驗證,說明這個模型在協力廠商資料上依然是穩定可靠的,這是第二步。
第三步是,我們看到一些合作就會設計一些前瞻性的研究,就是針對協力廠商模型已經驗證過了,就會設計一些針對現在的一些新的病人,用你的方法不管做診斷還是治療,去和普通的治療或者診斷來做對比。經過這樣的過程之後他才認為比較靠譜。所以這是一個非常嚴謹的認證過程,這是第一點。
第二點我想講的是,醫療的智慧決策,醫療不是一個簡單的步驟,他涉及到前期的疾病的篩查到患病的診斷,診斷完之後給患者用藥,用完藥之後做患者的預後,預測他之後病情的發展,包括對他進行生活方式的指導,包括患者的隨訪、管理,它其實是一個完整的院前、院中、院後的一個活動的鏈條。有一些是從醫生角度來看,診斷和治療這是非常關鍵的。
所以如果要做創業的話,如果你一開始就去攻最難的領域,當然會最謹慎,如果圍繞著鏈條裡面的一些上下游,就是需要大量的人工的部分,同時又不是那麼核心的診斷和治療的領域,可能會更容易被醫生和患者接受。
雷鳴:正好談到剛才講的創業問題,因為現在醫療領域是一個非常大的領域,我看到在美國,據說醫療健康領域能占到GDP的18%,中國占到6%,當然中國還有很大的空間,這6%已經了不得,中國50萬億的規模,6%就是3萬億,所以一年3萬億的市場,這裡面機會實在非常多。因此我們也看到,幾乎所有的這些大的企業都開始做。IBM當然做的時間比較久,像穀歌、百度、阿裡等等都在做,對於巨頭不斷切入的情況下,你對咱們有一些想創業的同學,或者說小型公司會有什麼樣的建議呢?就是說他應該怎麼樣思考這個問題?有什麼樣的機會?怎麼面臨一些挑戰?
謝國彤:因為我個人在IBM,我給的建議不見得靠譜,如果你聽了建議以後,創業沒有成功,別怪我。
我看到大公司有大公司的優勢,同時小的創業企業也有它的優勢,小的創業企業第一個要有核心技術。如果沒有核心技術就變成燒錢了,就拼誰資本雄厚。如果你在選擇一個比較專的領域,然後能夠真的有一些核心技術,我覺得這個是安身立命之本。
第二點,我感覺,因為小公司能夠速度更快、更貼近市場,能夠反應的更快。大公司的好處是集團軍作戰,規模很龐大,但是它的速度肯定不會像小公司這麼快,小公司如果選擇一些更貼近市場的,能夠快速在市場上看到效果這樣的一些題目,能夠盡可能的構建比較大的一些市場群,我覺得這也是一個很好的領域。
我可以去分享一下IBM收購的一個公司的情況,IBM收購了Phytel,這個公司就是專注于做人群健康管理的公司,它有技術,然後快速在美國佈局,有20個州都使用它的技術,快速的佔領了市場,所以就是,在市場上被認可,有核心技術、能夠快速的貼近市場是非常重要的。
雷鳴:我現在轉向一些同學提出的問題,在課程群裡有一個同學問到,IBM做了很多的研究,我們看到是卓有成效的,現在哪一些成果已經被廣泛使用了?另外,在中國這邊有哪一些業務是真正落地了?
謝國彤:IBM在美國目前落地的東西更多一些,因為沃森健康成立是在2015年,到現在剛剛兩年的時間,目前我剛才講的那些解決方案,其實都有具體的落地。不管是說做這種腫瘤的治療,包括像基因的治療都有落地。像腫瘤治療,中國有20家醫院在用,包括在美國、泰國、印度、新加坡就是很多地方都有在使用這樣的技術。像沃森的基因治療,在美國大概有十幾家頂尖的腫瘤機構,包括亞洲的東京大學都在使用這樣的方法進行基因治療。然後像我剛才講的真實世界資料的分析的話,IBM應該也宣佈了和世界知名大的藥企,比如輝瑞等等很多大藥企,都在使用IBM技術進行新藥的研發和上市技術的分析。
針對慢性病管理,美國有20幾個洲,包括英聯邦國家,如愛爾蘭、澳大利亞等等都在使用。跟我們的合作夥伴一起,在人工智慧的國際會議上,包括在醫學期刊上,還有新醫學國際會議上,我們陸陸續續發表了15篇文章。我們一方面科研合作,另外一方面就是怎麼樣把它變到臨床。
在臨床方面有兩個事情,一個是我剛才介紹的糖尿病管理這樣一個系統,已經在廈門市有20家社區醫院在使用,6000個患者在使用這樣的系統。
另外在上海有一家醫院,他們很快會做一個大的宣佈,利用疾病風險預測這樣的技術。一個患者以前去醫院抽完血出一個報告就可以了,但是現在會利用疾病風險模型把患者的抽血的資料和他在醫院裡面病例資料結合在一起,去給患者做一個他的疾病風險預測,如果發現這個患者是低風險的,他就不會告訴這個患者,這個患者拿完這個報告就走了。如果患者是高風險的,系統給他一個增值的報告,會告訴他風險因素是什麼,應該做一些什麼樣的事情可以規避這樣的風險,這樣的系統在上海一家非常好的三甲醫院目前已經開始使用。
雷鳴:人工智慧在醫學領域中的推進過程中,人和AI以一種什麼樣的關係往前演進?未來走向哪裡?
謝國彤:首先,第一個,要不要取代人的問題,IBM一直有一個明確的定義,IBM就是增強智慧,定位就是怎麼樣變成一個人類能力的放大器,讓人能夠看的更遠、聽的更准或者記得更准、算的更快,但是並不是要取代人,所以看到目前我們在醫療裡面講的各種案例,其實我跟很多醫生聊,他說其實我們給他的就像一個顯微鏡,從資料中間看出來一些他以前看不到的東西,這些東西能夠幫助他更好的做診斷和治療,這是一個定位。
第二點其實我們也可以看到,因為有了這樣一個智慧技術,其實醫生提高了工作效率,或者避免了犯錯誤,提高工作效率之後就有了更多的時間,可以看到現在醫生一天的時間都用來幹什麼,我們跟很多醫生一起工作,醫生每天早上八點以前就要到醫院,一天要看門診一百個病人,看完病人之後還不能走,還要做科研、寫文章,週末還要寫文章,其實他們有很多創新的訴求,很多醫生,比如說像北醫的很多醫生,都是非常有理想和追求的,希望看到一些疑難病症的時候,來做一些創新的事情,但是受限於目前門診的壓力,大醫院人滿為患,他們很難去做這樣的事情。我跟很多醫生真誠溝通過,我說你們覺得AI對你們是一個威脅嗎?至少大醫院醫生沒有覺得是一個危險,他們覺得有很多創新的事情,以前受限於精力沒有時間做,如果效率可以提高,以前看一個腸鏡看兩個小時,現在看20分鐘,省出來的時間可以幹一些更有價值創新的事情,我覺得這應該是一個相互輔助的定位。
雷鳴:我覺得講的特別好,就是說很長時間內,我覺得醫生和AI之間應該是一種共生的關係,即便醫生坐在那兒一上午看了50個病,他可能也沒有太多成就感,這些病人都是重複的,如果這些事情交給AI來處理,其實醫生很高興,醫生研究怎麼攻克癌症和愛滋病這些人類的難題,醫生有更多時間去做這些事,就更有意義。
時間原因,再問最後一個問題,你也講到,醫療是一個責任重大的學科,現在人工智慧如火如荼發展的很快,現在也有很多投資。你也提到,依圖又得到了幾億人民幣的投入,另外我們也講到,醫療是非常嚴謹、非常負責任的一個學科,未來你覺得AI+醫療推進速度上,5年、10年、15年這些時間上,大概是以什麼樣的速度和方式演變,改變醫療領域的時間表是怎樣的?
謝國彤:這個問題挺大的,要做預言是預測未來,我看到,首先剛才也提到了資本大量湧入,雖然會帶來泡沫,但是也有好處,能夠吸引最頂尖的人才進入這樣一個行業。
我看到,在最新的像《新英格蘭》這樣一些醫學雜誌上,醫生發表了很多觀點,從他們角度來看新技術怎麼改變醫療領域,我覺得在一些領域的話,在可預見的3到5年就會看到很多結果,這不是我的觀點,我應用《新英格蘭》醫生的觀點,他講到,影像科的工作,很多是人工智慧可以發揮作用的,包括對很多複雜疾病的診斷和預後,這一塊就涉及到,以前沒有什麼好辦法,但是又有影像,又有病例,又有化驗結果,以前決策很困難,以後他們覺得人工智慧會發揮一些獨到的作用。
當然,我們也看到,以藥物為例,這也是美國剛剛通過的一個政策,就是說所有上市藥物的 repurposing,就是把上市藥物做其他的用途,比如說這個藥物以前治療A病,現在用來治療B病,這樣的審批不再需要標準的RCT了,用真實事件證據就可以,這都是政策上比較認可的例證,或者說從醫生的角度來說,從接受度或者各種角度來說比較認可的。這些領域我覺得在未來3到5年之內應該可以看到非常快速的發展。
雷鳴:非常感謝謝老師的精彩分享!
這些工作都是在二戰前後(1950年前後)。半個世紀過去了,其實電腦最核心的計算部件CPU並沒有本質變化,與當年馮諾依曼和圖靈設想的沒有太大變化,只不過做的更小了,集成度更高了,計算能力更強了。但是最近幾年,計算能力方面,CPU的計算技術上有了突破性的發展。第一個我想介紹的話就是類腦晶片。目前,IBM、國內中科院、其他的公司都在做這方面的工作,類腦計算晶片的核心想法就完全突破了以前馮諾依曼通過加法器這樣的一套計算框架,而是從神經元的角度做一個晶片。這個晶片中,沒有我們在通用CPU中看到的東西,而是一個neuron(神經元),然後神經元之間通過神經元的突觸把它連接起來。這樣一個架構天生就是一個神經網路,可以完成這種基於神經網路的一些演算法,比如CNN或者DNN演算法,有天生的優勢。 目前,一個晶片上有上百萬個神經元與神經元之間的連接,synapses(神經突觸)可以達到兩億五千多萬個。這樣一個非常複雜的晶片功耗非常低,只有70毫瓦。大概一個智慧手機的功耗在五瓦左右,它的能耗是你手機的1%,是筆記型電腦的千分之一。所以你可以設想一下,一個擁有上百萬個神經元,幾億個神經觸突的晶片,可以做得如此的小,如此的低功耗,去運行模式識別或者deep learning這樣的task,然後放在各種各樣的感測器上,這就是大家講的邊緣計算。 所有的事情都成為了可能,這是計算晶片技術的一個大突破。類腦晶片,用人腦的神經元架構來去構造晶片。
另外,我想介紹的就是IBM Q就是IBM的量子電腦,名字是IBM Q,聽起來萌萌噠的。
我當時看到圖片的第一感覺是好像看到了四五十年代的傳統主機,大的像一間房子一樣。目前這個機器就在IBM研究院總部。它只有五個量子位,是一個很小的量子電腦。但實現了一個技術上的突破,可以保證五個量子位可以有穩定的輸出。
IBM新的計畫是會推出有50個量子位元的量子電腦。其實我一開始也不太理解為什麼要做50個,後來查了一些量子計算的文章,目前從理論上推算,49位的量子位可以達到現在所有超級電腦的計算水準,如果你能夠做到50位的,就可以beat目前所有的超級電腦,所以會比類腦晶片走的會更遠。可以預見在未來,計算能力的突破是非常可觀的。以後的所有軟體,可以設想有無限的計算能力來支撐,那麼很多想法都是完全不一樣的。
沒有單一資料模型能夠覆蓋多模態的醫療資料
從計算能力再跳回醫療本身,就是第二個因素,就是醫療資料的爆炸,算得過來也有資料可算了。
這是醫療界關於醫療資料的調研,或者從IBM視角來看醫療資料分析包括三大類的資料:臨床資料、基因資料和大健康資料:1)臨床資料,就是醫院產生的資料,一個人去醫院會做檢驗、開藥、拍片,這都是醫院產生的資料,有一個測算臨床資料對人健康的影響有10%;2)基因資料,就是與生俱來的資料,對人的健康影響有30%,有很多人在做基於基因的診斷,包括腫瘤治療。當年女神安吉麗娜朱莉做過一個乳腺切除,也是因為經過基因測序,發現有一些遺傳上的變異;3)大健康的資料,就是目前醫院和基因之外,所有與健康相關的資料,包括飲食、運動、工作、在社交媒體上發洩的情緒。
醫療資料分析就是要從海量的醫療資料中,尋找醫學證據,然後利用這些證據提供更加個性化的基於證據的臨床治療。我們來看一看,從IBM的視角來看,有了計算能力和資料,能做些什麼。
那從IBM角度來看,目前做三件事情:1)做一個醫療資料雲,把醫療資料先存起來;2)做analytics,怎麼對醫療資料進行深度的計算和分析,把它變成模型,一些API;3)做解決方案,怎麼針對不同類型的醫療領域客戶,打造客戶能夠使用的具體軟體和解決方案。
在醫療領域,我們解決兩個問題:一是解決多模態醫療資料的存儲問題。醫療資料是多模態資料,有結構化很好的資料,比如化驗單、處方;還有一些半結構化的資料,比如住院小結、出院小結、入院,病例裡面有大段的文本;還有完全無結構化的資料,比如醫療影像;還包括像基因測序這樣的組學資料;還包括時間序列資料,比如ICU裡會看到一個人插著各種各樣的儀器去測量它的血壓心率脈搏等各種流資料。這些資料是不同模態的,有些資料適合用關聯式的資料存儲,有些資料適用時間序列資料存儲。
目前,沒有一種單一資料模型能夠覆蓋這種多模態的醫療資料,如何有好的雲平臺去處理多模態醫療資料,這是需要解決的第一個問題。
第二個問題就是安全和隱私問題,因為醫療資料的話我們有很多知道很多這種關鍵資訊洩露信用卡資訊洩露,醫療資料的話是非常隱私的個人資料,怎麼樣對這些資料進行保護,這是雲平臺一定要做好的。歐美一些國家都有針對醫療資料保護的法規。根據這個法規,醫療資料約有二十幾項關鍵的隱私資料,比如姓名、住址、電話、身份證號,進入資料管理的時候必須要打馬賽克去隱私,同時對資料進行增強式加密,資料即使被洩露也是不可解密的;對所有的資料訪問(誰什麼時間能訪問什麼)都要有一套嚴格的存取控制,通過這樣的方式來保證資料安全性。
簡單而言,分析層也做兩件事情。
第一是對多模態醫療資料的分析,不管是結構化病歷資料、影像資料,還是文本資料、時間序列資料,不同的資料不存在單一的技術能夠對所有資料都進行一個很完美的分析,所以目前針對不同類型的資料有不同的分析方法,有些適合用深度學習的方法,有些採用時間序列的方法,有一些適合用回歸分析的方法,分類的方法,聚類的方法。
第二,分析是與醫療領域相關的,醫學裡有一些特定的問題,不是去分析照片是誰或者什麼,而是分析資料裡疾病風險的因素是什麼,怎麼樣做疾病的預測和預防,怎麼樣對患者進行精准分群,可以對患者進行個性化治療或者有不同的治療方案時哪種方案對患者反應比較好(treatment effectiveness),包括影像識別怎麼自動發現影像中間的病灶,都有非常強的醫學知識。從解決方案的角度來看,醫療是一個非常複雜的行業,醫院、醫生、藥廠、醫療設備製造商、健康管理機構、醫療保險公司,他們的訴求是不一樣的,不必須要針對不同類型的客戶做出不同的解決方案,可以利用底層的雲平臺和分析技術。在解決方案裡,我們有針對像醫院類型的醫療機構的解決方案,包括腫瘤的個性化治療,Oncologyand Genomics,醫院影像(medical imaging)的分析。還有針對藥企做新藥發現和上市藥物有效性、安全性的分析,還有幫助健康管理機構,對常見的慢性病人群(高血壓、糖尿病、慢性腎病)以及多種併發性慢病的患者進行管理解決方案,也有幫助醫療保險機構合理地valuedbased care,按照價值來付費,來進行疾病管理。在目前的平臺上,IBM通過過去兩年的收購,目前有超過2億美國人的醫療保險資料,有超過1億美國人的電子病歷資料,有超過10億張的醫學影像片子,有美國幾十個州的慢性病管理資料,把這些資料關聯起來做分析,就會發現非常有價值的,任何單一資料來源都無法發現的一些insight或者evidence,可以支援上面各種各樣的應用。
個性化腫瘤治療助手和腫瘤基因治療助手
接下來,給大家來介紹一些具體案例。
第一個我想介紹的是沃森個性化腫瘤治療助手。
首先腫瘤是一個非常惡性的疾病,目前很多腫瘤也沒有什麼好的辦法,但是危害非常大的。以中國為例,每年新發的腫瘤大概超過 400 萬,有一些特定的腫瘤,比如與消化道相關的食管癌胃癌發病率很高,全世界每年新發胃癌有超過40%是在中國。同時,腫瘤治療很困難。一方面疾病本身比較困難,另一方面治療方法層出不窮,各種靶向藥物,各種新的治療方法不斷的出現。如果想要做一個好的腫瘤醫生,每月要讀超過1萬篇與腫瘤相關的新的科研文獻,這是不可能的。這個解決方案的核心技術是運用自然語言理解技術,讓機器去代替人去讀書。這個系統讀了兩千多萬篇文獻,應用自然語言理解抽取裡面的疾病症狀、診斷治療、患者病情,然後構成非常複雜的知識圖譜。基於這樣的知識圖譜,當患者問診,系統會自動從患者所有的既往病歷資訊中,包括檢查報告、片子、檢驗結果、病史的描述,自動抽取上百項的關鍵資訊,借助後臺的知識圖譜進行一個很複雜的推理過程,給出治療的推薦治療方案,包括不同的方案與患者的契合度,這樣的資訊可以説明腫瘤科醫生更好地用最新的最好的治療方案,為患者提供個性化的治療。Watson Genetics從基因維度切入,與前面解決方案一起解決腫瘤治療。
因為腫瘤本質上是一種基因變異導致的惡性疾病,醫生們就想能不能通過直接用藥物打靶,靶向作用到變異的基因來控制腫瘤。
這個系統也很簡單。拿到一個患者的二代測序結果後,通過分子的profiling,在患者所有的變異基因全部找到之後,進行很複雜的pathway分析。Pathway主要通過在幾千萬篇文獻中,學習各種藥物靶向、基因變異、蛋白質作用過程等方方面面,構成了很複雜的網路,然後推理,給出相應的靶向藥物的治療推薦。前一階段有個新聞報導,日本東京大學有一個患者得了非常罕見的白血病,然後沒有醫生沒有見過,沒有辦法確診,還甚至進行了誤診。借助這樣一個系統,很快就找到患者可能得的白血病,同時推薦了一些靶向藥物,挽救他的生命。
Watson先讀了很多書,包括300本期刊,200多本教科書,幾千萬的文獻。這就是實際系統使用的介面,來了一個患者之後系統會推薦,每一行是一個治療方案,綠色的是最好的治療方案,包括放療、化療、手術治療、藥物治療、各種不同的治療。同時,每一種治療方案,系統會給出更多的資訊,比如治療方案,愈後效果,是否有毒性,毒性是什麼樣的。這些資訊並不靠醫生手工提前錄入,而是由系統自動從幾千萬份文獻中,利用自然語言的理解技術,把這些關鍵資訊抽取出來構造成一個知識庫,然後推送到醫生面前。
其實,很多醫院進行腫瘤治療時,會請很多專家給出自己的治療意見,包括治療方案的優缺點。這個系統就相當於一個讀了所有的最新文獻的專家,把不同的治療方案包括副作用、不同治療方案藥物之間的相互作用,生成了一本大概有三四十頁的報告,提交給醫生,幫助醫生去做出針對患者最有利的一個治療方案。
醫學影像
下面想介紹的案例是現在非常火的醫學影像。醫學影像極大地推動了醫療的發展。最早醫生看病通過聽診器診斷,後來出現了X光,然後出現了更複雜的像核磁、超聲等各種簡單診斷設備。這些影像設備可以説明醫生,更好地看到患者體內的資訊,甚至包括病理,通過組織切片用高倍顯微鏡看到細胞層次的變化,做出更加準確的一個判斷。
影像對醫學的作用太大了,所以在03年的時候,發明核磁共振的一個物理學家和一個化學家竟然得了諾貝爾醫學獎,核磁共振極大的顛覆了醫療診斷和治療。影像也是多模態資料。有一些比較常見的二維影像,比如眼底影像,皮膚癌影像,或者消化道的胃鏡腸鏡;還有一些是三維影像,比如ct或者核磁通過向切片掃描的方式,對人體進行上百次的掃描,生成一個完整的三維影像。能夠很好地用來做各種診斷和治療;還有一類是這種病理影像,主要做很多腫瘤的治療,它需要從疑似腫瘤的部位取一個組織,然後進行切片,放在高倍顯微鏡下,都是幾萬*幾萬圖元的高解析度的影像。往往一張病歷影像的片子可能就有3G-4G的大小。這些影響雖然可以提高醫療水準,但是分析同樣很困難。協和醫院想去約一個核磁或者ct可能需要一周甚至一個月的時間。機器其實是不休息,人要休息,看不過來。現在影像分析面臨的一個很大的問題——三甲醫院的醫生的話有大量片子他看不過來。同時,有一些消化道影像,比如膠囊機器吞到肚子裡,一次拍一個視頻出來,做一次檢查生成3萬到5萬張影像,有病變的部位不超過30張,要從3萬張中間去找到那30張,那就是大海撈針,就要靠醫生花大量的時間去過濾掉那些無效的片子。所以影像技術的進步對醫生來說最迫切的需求就是,怎麼樣利用識別技術自動發現病噪,提高他看片的效率。
機器看片原理很簡單。首先,用一些比較經典的一些影像分析或者模式識別的方法,類比一個醫生的看片過程,看一些視覺特徵。因為很多病變部位的位置、大小、顏色、邊緣形狀都有一些視覺特徵,利用這些視覺特徵可以説明電腦判斷出來是不是一個惡性的肺結節,或者是不是某一種皮膚癌。同時,電腦可以利用複雜的卷積網路,在圖元層級上看圖元的變化,在圖元層級上進行計算,比人看得更細緻。可以通過構建多層的神經網路去提取那些隱含的特徵資訊,利用這樣的資訊做判斷。
電腦角度來可以看多模態的資料。它不光看影像資料,還看病例資訊、基因測序結果,將多模態的資訊融合在一起,可以達到一個更好的效果。我們做過很多實驗,如果用影像分析疊加其他模態的資料,比如將病歷資料、年齡資料、歷史病例等關鍵資訊抽取出來之後,病變識別的精度可以直接提高10%以上。
我這邊給大家介紹兩個例子,一個是黑色素瘤的。
我們將1萬張影像有標記的影像交給機器。它利用深度學習的技術學習之後,構建了一個模型,然後再從測試集裡面拿出3000張讓3名醫生和電腦一起來看。人達到的精度大概是84%左右,而電腦可以達到97%。不止是IBM,很多其他公司電腦大概做到90%到95%。
另外一個例子是消化道影像。
每一次檢測生成的資料特別多,有 3萬到5萬張,同時裡面有很多不均衡的資料,若想能夠自動將這些出血點檢測出來,就需要遷移學習技術,很多資料的預處理技術,包括data augmentation或者data resampling,然後構建出來深度學習的網路,達到更好的識別精度。
我給大家看一個針對皮膚癌的小視頻。用手機或各種有攝像頭的移動設備,拍一下手上的某一個色斑,上傳到後臺的雲伺服器上,裡面已經有一個訓練好的模型。這個模型主要就是做一個分類,判斷一下影像是不是黑色素瘤,經過後臺計算之後會給出一個結果。判斷它不是黑色素瘤,顏色都是比較淺。同時系統會自動把已知的一些確診的相似的影像返回回來,説明醫生或者患者做一個更好的判斷。
實驗者也還選了一個已知黑色素瘤的一個確診影像,這個系統中出現紅色告警,說很大可能程度是一個惡性的黑色素瘤,同時會把一些類似的影像都會返回回來,説明醫生來做一個判斷。
真實世界證據分析
下面我想給大家介紹的案例的話叫真實世界證據分析。 它是一個醫學界的詞,對應的詞叫RCT,雙盲隨機對照臨床實驗。目前判斷一個藥或一個治療方案是否有效,必須要做RCT實驗,證明藥效或者治療方法的有效性。一個這樣的實驗平均要花十年以上的時間,要花10到15億美金,而且不超過10%的成功率。RCT是一個非常耗時耗力耗錢的方式,真實世界證據就是跟它做對應的。
RCT實驗一般會組織幾百個人,比如五百八百人,分成組去進行實驗,要積累資料。同時每天其實生成大量的醫療資料。以中國為例,一年就診的人次接近70億人次,相當於是全國人民,每年看五次病,當然有一些老病號。70億次就診產生了大量的臨床資料,但是這些資料並沒有被很好分析,都散落在 醫院的各個資訊科機器上面。這些資訊其實可以被用來做真實世界的挖掘,就是利用真實世界的資料,做更好的疾病治療、預防等。
真實世界證據就是真實世界中資料,包括病歷資料、醫療保險資料、疾病資料,輸入進來,產出各種模型,比如中風病人的再中風預測模型,或心梗病人的死亡風險預測模型,或某種藥物治療有效性的模型。這樣的模型是通過這樣的pipeline得到的。我們發現,第一可以有一個通用的pipeline去解決真實世界資料分析的問題,因為過程重複,包括導入資料,資料清洗和整理,構建患者人群,抽取特徵做建模。很多是通用的,比如疾病風險預測分析,患者的相似性分群分析,治療有效性分析,患者依從性分析。這樣的分析的話都可以變成一些可重用的模組,作為一外掛程式在平臺上來做模型生成。比如,咖啡機放入資料就會生成咖啡,裡面有很多參數要調整,你是要喝美式還是拿鐵還是摩卡。我說起來比較簡單,但是就是這麼一個過程,我給大家舉兩個例子。
第一個例子的話是我們做的疾病風險預測的一個例子。
這個資料庫裡有45000個心梗病人,有超過800個變數去描述病人的基本資訊,包括它的治療資訊,臨床資訊等。醫生想知道哪些因素會導致患者出現院內的死亡,每個患者院內死亡的可能性有多高,這就是一個典型的疾病風險預測的問題。那這個風險模型以前是有的,TIMI模型是目前醫學界公認的最好的心臟病的風險預測模型,AUC大概是在0.76,利用我們的方法AUC可以做到0.87,同時我們發現了24個新的風險因素,有很多風險因素的話是非醫療性質的,比如說一些社會性的因素或者就診醫院的一些因素,比如說家庭幸福的人不容易死。
醫生常常也做這類分析,他們一般會有自己的假設,從800個量裡面挑出15個20個,然後從4400萬個人裡面挑出一千個人,用經典統計方法去做單變數多變數的回歸,去看是不是有顯著性,這是目前醫學統計常用的方法。但是用這種人工智慧方法去做時,我們就會用很多新的一些方法,比如做新的特徵抽取。舉個例子,我們會用共生的模式挖掘,去看這個患者既有高血壓又有糖尿病共病,會不會是一個更加有意義的風險因素。這些因素以前醫生不會考慮,是我們通過一些挖掘的方法得到的。包括一些共症共治,比如病人同時服用A藥B藥進行治療,可能是一種很好的保護性因素,以前不會考慮A加B,或者A加B加C這樣的問題。還有包括一些生理指標,比如血壓。
醫生首先有自己的家屬,從800個量裡面挑出15到20個,人群他不見得用4萬個人,裡面挑出一千個人做單變數多變數的回歸去看統計是不是有顯著性,這是目前醫生使用統計常用的方法。
用人工智慧方法來做的時候,比如說新的特徵的抽取,舉個例子我們會用一些共生的模式挖掘去看,這個患者可能既有高血壓又有糖尿病,這樣的一種共病可能是一個更加有意義的風險因素,這些因素以前醫生不會考慮,這是我們通過一些挖掘的方法得到的,包括一些共治,比如說這個病人同時用了A藥和B藥進行治療,以前醫生可能用A或者B,並不會考慮A+B,還有像包括一些生理指標也是這樣,比如說血壓當前值是多少,如果這個病人血壓高壓是150,他是從90連續漲上來的還是一直持續到150,還是從180掉下來,醫生不管,醫生只通過一個時間來做判斷,其實資料時間序列的資訊沒有很好的利用起來,這些都是用人工智慧的方法,不管用RN建模或者其他分析的方法,可以很好的捕捉到資料之間時間序列的資訊,利用這樣的資訊可以做更好的預測。
我們最後發現我們把所有的因素,我們不光發現哪一些因素有影響,同時每個因素的權重包括它的分類都列出來了,醫生就會說這個病人因為病情太嚴重導致死亡的,還是治療不給力導致死亡的,同時每個病人都會按照風險排一個序,橫坐標是一個病人的患者號,所以高風險、中風險和低風險所有病人一目了然,這樣可以幫助醫生更好對病人進行管理。
第二個例子,我想介紹的是患者精准分群的分析,這個也是精准醫療裡面非常重要的,就是什麼叫精准?有兩個極端,一個極端觀點認為每個人都是不一樣的,因為每個人的基因都是不一樣的,每個人基因變異也是樣的,作為個體化治療要個性化到每個個體,這是一種很好的理想,但是現在做不好。
另外一種人群治療,比如說二型糖尿病,這是一個定義,針對這群人怎麼治?目前很多精准醫療希望在這兩個極端之間找到更多的重點狀態,以中國為例我們心血管的病人2.6億,糖尿病病人1億,這1億人肯定不一樣,他肯定不是1億種情況,也肯定不會是一種情況,怎麼樣在中間找到一個更合理的分群個性化的治療,這裡面我們做的一個案例是針對房顫病人做卒中的預防,房顫本身是無害的,但有病人會導致惡性的事件,比如說心梗或者腦梗,醫生要做的事情就是當來了一個病人之後要做判斷,要判斷這個病人是高危還是低危,如果高危病人要怎麼治,是不是要吃法華林去進行中風的預防。
但是如果這個治療就這麼簡單也就罷了,但是很多治療都是有危害性的,以法華林為例,這個治療如果用藥過量會導致腦溢血。所以醫生每天都會面臨一個選擇,吃還是不吃,這對他們來說是一個問題。按照他們的經驗他們知道其實以前可能有一些病人不該吃的我給他吃了,但是很不幸用以前的模型不夠精准,發現不了那些不該吃的病人,我們用傳統的醫學模型認為是高危的病人,不同中風的發病率,看完這個圖之後醫生特別激動,發現了第一點,有一群人過度治療了,這群人傳統醫學方法認為是高危的,其實並不是高危的,只不過以前的模型無法捕捉到細微的區別。
同時這群人是用某種藥物。針對這群人,如果吃這個藥物中風的發病率是9%,如果不吃則接近18%,這群人對某種治療方案反映特別好,這個治療方案在整個人群上是沒有顯著差異的。所以這就是精准的分群的方法,能夠説明從病例資料中間挖掘出來更精准的患者的分群,然後幫助醫生做一個個性化的治療。
它在方法上有什麼特點呢?其實分群也不是一個多麼新的方法,分群傳統上是一個無監督的學習,分群聚類出來很多結果臨床上是沒有意義的。我們有一些方法引入一些監督信號。
所以這就是一個精准的分群的方法,能夠説明從病例資料中間挖掘出來更精准的患者的分群,然後去幫助醫生做一個個性化的治療。患者按照中風的發病率分的非常開,這個方法核心是幹什麼事呢?
它會判斷哪一些因素對患者聚類是非常重要的,哪一些因素比較重要,它要自動的挑出來,同時,每個因素的權重是多少,他就可以把患者分的非常開,利用這個方法它就可以挑的非常開。
認知決策
下面我想介紹的叫認知決策,其實這個決策知識也不是新話題,從人工智慧誕生的第一天起就有專家系統了,專家系統無非就是如何把專家的知識變成電腦可以執行的規則,所以最早的人工智慧,五幾年的時候斯坦福做了一個人工智慧系統,當時他們針對血液病的治療,可以對血液病治療進行分析的,這就是前面的第一步。如果各位有瞭解,醫療裡面有很多臨床指南,或者臨床路徑,這些都是醫生總結出來的一些知識和規律。
是不是這樣就能看病了呢?如果這樣就能看病的話,醫學院的醫生讀完之後就可以當神醫了,現實不是這樣的,從書本中間學習到知識是有缺陷的,往往學習到的是比較抽象的,實際使用的時候有各種各樣的問題。比如說以糖尿病的治療為例,你會看到,當指南告訴你說這個病人血糖控制的不好,目前使用了雙胍類的藥物還是控制不住,他應該用雙胍和磺脲類聯合治療,到底怎麼聯合。
我們開始嘗試另外一條路徑就是用資料驅動,用一些機器學習的方法,不管用什麼樣的模型,可以用各種各樣的模型去做基於資料的推薦,簡單的說就是你看到類似的病人都是怎麼治的,治完之後效果好不好就可以得到類似的治療方案,這樣出來的結果的好處就是,所有知識都是從資料中間學習出來的,它的資料推薦最接地氣。當然它也有缺點,它的缺點是資料往往都是有漏洞的,你的知識是從這個資料上學習出來的。
另外,很多電腦的模型是黑盒子,它對醫生來說不可解釋,你不能給我一個模型告訴我說怎麼治,也不告訴我為什麼,我們這個過程當中發現了一個真實的例子。我們以前拿了幾萬糖尿病病人超過5年的資料。我們發現,降糖方案最好的方法到底是什麼?最好的方法就是上胰島素。醫生說你們不是開玩笑嗎,我們治療分一二三四線,胰島素是最後的,一二三線藥物控制不住的時候才會這樣,這背後是有一個生物學的邏輯的。對電腦來說,效果最好的就是上胰島素,所以後來我們說,其實你看這個過程,特別像一個醫生的成長過程,一開始是讀書,他能夠把一些理論的框架和一些非黑即白的知識挖掘出來。但是真實世界很複雜,它複雜在哪呢?就是複雜在資料這一塊,因為醫療不是非黑即白的事情,面對一個患者的時候,往往是有多種選擇的,每一種選擇都有優缺點,並不是說存在一個單一最好的選擇。每一種選擇應用到患者身上之後,它的效果也是不確定的,這個患者好,那個患者不好,這簡單來說就是概率。
所以其實好的醫生畢業之後通過大量的學習,看老醫生看病,在自己腦子裡面構建了一個概率模型,知道這種情況下會有這幾種選擇,哪一種選擇靠譜可能性大一點,這恰恰是電腦非常擅長的。我們最後做出來的這個方法就是用指南和臨床知識作為一個骨架,從資料中間學習各種從疾病的篩查、診斷、治療、預後相關的概率模型,把它作為血肉,添加到指南的骨架之後,就變成一個非常完整的臨床決策的知識庫。
最後,我再給大家介紹一個例子,這是一個技術,這個技術它到底能怎麼用?我們把它用到慢性病管理領域裡面,中國現在的慢性病患者超過3億,包括2.6億高血壓,1億糖尿病,1億系統疾病,還有慢性的腫瘤患者,這些患者,靠的是大概100萬的社區醫生來進行管理。面臨的現狀就是管不過來,所以這些醫生,他們一年大概接受兩天的培訓,幫助他們瞭解最先進的治療方案,而且他們一個人不是管一種病,他們一個人至少管20種病以上,這對他們來說是一個巨大的挑戰。
從電腦角度來看,我們幫他們做什麼呢?我們選擇了兩個場景,一個場景是做疾病的預防,我們幫助醫生把那些有併發症風險的高危患者盡可能挑出來,比如說糖尿病患者可以併發到超過30萬併發症,怎麼樣可以把那些還沒有得中風,還沒有得心梗的糖尿病患者及早的發現出來,讓醫生進行一些預防性的手段,這樣做預防能降低病人的痛苦,同時也降低醫療的成本。
第二塊就是治,這個角度我們主要考慮,怎麼樣利用這種臨床指南的知識,和我們從幾十萬、上百萬的這種糖尿病病人治療既往的資料中間挖掘出來的證據結合在一起,給醫生一個針對當前患者最好的治療方案。這一塊我也給大家看一個小的視頻,這是我們實際使用的情況,這個情況你可以看到,我們目前這個系統跟醫生用的電子病例做了一個整合,目前有6000個病人已經使用這個系統進行治療,每個月系統生成的推薦接近2000,而且還在持續增長。可以看到,醫生接受新鮮事物的情況很有意思。這個社區的醫生,他一開始不願意接受新鮮事物,慢慢就接受並達到了很好的使用水準。
這個系統類比社區醫生的一個工作平臺,醫生還要進行隨訪,這個系統會自動把患者按它的風險給他排高中低排出來,同時為什麼這個病人有風險,比如說這個病人為什麼有中風的風險,風險模型是什麼,有哪一些資料導致他有這樣的風險,我們會幫助醫生把風險因素找到,同時給他做一個治療的推薦,這個病人應該降糖、降壓、降脂,包括劑量頻率等等,都是從資料中間挖掘出來的,類似的病人都用了什麼樣的治療方案,效果怎麼樣,把這樣的資訊推送給醫生,這裡面所有的證據,針對治療系統發現說這是指南裡面的證據,包括有接近26%的病人用了這樣一個治療方案,這些病人都是有糖尿病,高血壓年齡是在55到75歲,其中很大部分人用了這種治療,另外一部分人用了另外一種,包括每一種治療方案的效果。這些資訊從資料中間挖掘出來的和指南知識結合在一起推送給醫生,幫助他做一個更好的慢性病的管理。
降壓藥有沒有按時吃,血糖有沒有變化,如果發現血壓特別高,醫生就會督促他進行更好的降壓管理,血糖升高了也降血糖,這些專案以前是靠人幹的,500萬人口有100萬進行這樣的隨訪,怎麼可能隨訪的過來?所以要招很多護士,包括健康管理機構提供健康管理服務,培訓護士來幹這個事,這依然是大量人工的工作。
所以我們在想,我們能不能利用兩個關鍵技術,一個技術是對話技術,我們不是做一個通用聊天機器人,而是做一個虛擬護士,這個護士能夠按照護士的隨訪的過程,針對什麼高血壓、高血脂、高血糖這樣的病人去進行自動的隨訪,去採集他相應的資訊,同時的話呢,去生成預警,如果系統發現病人有情況的話。
第二個技術是QA技術,就是問答技術,中國有很多醫患溝通的網站,不管是春雨還是好大夫,這些網站上面大量的患者在問問題,很多的問題跟飲食、運動、作息、藥物的副作用、藥物之間不良反應有關。其實並不是那麼核心的診斷和治療問題,但這些問題也靠人工來回答的,所以我們在用一些 QA 的技術來做更好的患者教育,幫助患者最及時的找到可信賴的資訊。
但是,患者問的問題是五花八門的,什麼病名字寫錯的,藥名字寫錯的,各種大爺大媽會有各種口語。你怎麼樣做回答?這是非常核心的技術,我們不同層級都用了深度學習的技術,包括用CNN做問題分類,去做問題的相似性匹配,最後可以達到一個比較好的Top1的結果。
系統會形成一個隨訪的報告,這個隨訪的報告包括採訪採集到的關鍵的體重或者血壓血糖的資訊,包括患者用藥的資訊,所有的資訊都會自動生成一個報告,幫助管理師更好的對患者進行疾病管理。
同時,系統會利用決策的功能,當發現有風險的時候,會及時通知患者和醫生讓他去醫院就診或者對患者進行及時的干預,避免後面釀成大禍。
時間關係的話,我今天的分享大概就是這些。最後再講一點,一個模型、演算法,給它一堆資料,一跑就能出來一個治療或者診斷的模型。一定要把醫學的知識和靠譜的分析手段結合在一起,很謹慎的選擇資料,選擇人群和選擇你要分析的任務。做這個事,一句話,要心存敬畏,這樣才有可能做出靠譜能用的醫療 AI。我今天的分享就是這樣,謝謝大家!
精彩對話
雷鳴:非常感謝,講的特別精彩,基本上涵蓋了我們說的整個醫療的過程,包括疾病的預防,包括得病之後的診斷,輔助的治療方案,以及慢性病管理。涵蓋特別多,信息量很大,也講了IBM在這一塊的進展,好多東西我覺得都是第一次學習到,特別好。
基於剛才你講的東西,我想進一步的瞭解一下,你剛才講到IBM在做神經網路晶片,我想大概瞭解一下神經網路晶片和GPU在定位上,神經網路計算晶片未來是通用的還是專用的,是要替代GPU在深度學習上的計算呢?還是在遠端?
謝國彤:首先我不是做硬體的,但我可以試著回答一下這方面的問題。大家可以看到,除了CPU之外,現在有GPU、FPGA這樣的專用晶片,可以輔助CPU做計算的過程。這種類腦晶片的定位,首先它不是要來替代計算型任務的,CPU該幹的事還是CPU幹,類腦晶片不是取代電腦幹的事,從它的設計來看,它本身就是一個神經網路,是靠神經元和突觸,很多普通的計算任務它不擅長,但是它擅長的workload是 neural network 這樣的workload ,所以我覺得首先從任務上來看它和經典的CPU、GPU或者FPGA有一個任務上的切割,這是第一點。
第二點它特別強調低功耗,低功耗就會偏向邊緣計算,可以想像有互聯網或者感測器這樣的產品,可以把訓練好的模型運行在這樣的晶片上,這樣的晶片可以想像到,最早聽他們做的實驗,做了一些機器昆蟲繞著矽谷研究院飛,功耗特別低,它可以飛很久,可以採集風、溫度、濕度這樣的資訊,做出這樣的方式之後,可以把有效的計算推算到遠端,可以在遠端做一些事情,不需要耗大量的計算,這樣可以在邊緣計算這個角度,我覺得它可以發揮更好的價值。
雷鳴:這一次人工智慧火起來,深度學習功不可沒,在圖像處理上有一個發展之後,最近一發不可收拾,我想瞭解一下IBM的研究已經做了十來年了,最近來看深度學習這一項技術在整個醫療領域裡面,尤其是醫療科技上,能帶來什麼樣的突破性的發展?這項技術和其他傳統的學習演算法之間怎麼融合,能夠推動整個AI+醫療的發展?
謝國彤:首先,我覺得就是深度學習在醫療應用的領域,還處在一個開始的階段,大家比較容易想到的是說把深度識別、深度學習在一些其他領域成功的經驗搬到醫療領域裡面,所以最直接的就是醫療影像,在醫療影像領域目前用深度學習用的最多的,效果相對來說也是最好的。這可能和影像資料的特徵有關係,它從空間上來說是一個比較稀疏的資料。在其他的一些領域,比如說像病例資料領域,是一個非常稀疏的資料。在這樣的資料上,深度學習的工作都在嘗試階段。我看到的就是我們自己做的,包括我們看到的一些報導,絕大部分做深度學習的,跟傳統的方法比,它的提高都是小數點後第二位甚至第三位上的提高。
但是,我覺得深度學習有一個端到端的學習,這是一個非常好的東西,它有一個潛力,可以把多種學習方法融合在一起,這是我們現在看到的一個非常有趣的點,我們可以在這個中間疊加一些其他的,被證明在這上面比較有效的方法融合在一起,這是我個人認為比較有前景的方向。
主持人:我們做醫療比較有挑戰的就是醫學資料的獲取,或者說和醫院的合作,因為我在美國的時候,關注這個也很久,我在美國,應該是兩三年前,當時跟斯坦福的李飛飛教授一起喝咖啡聊發展的時候,她表示對醫學這方面也很感興趣。但是她告訴我說,即便是在斯坦福校內,她如果用斯坦福校醫院的資料,也需要申請,也需要通過論證,她說她當時提了一個專案,討論了一年好像還不行,所以看起來醫療資料的合作的難度還是比較大的。對IBM來說,怎麼跟醫院打交道?這一塊你有什麼經驗?或者說你對這一塊未來發展是怎麼看的?
謝國彤:你剛才講的李飛飛所說的過程,所有做醫療研究都要經過這樣一個過程,通過倫理委員會,證明說你這個研究是符合倫理的,然後不會侵犯患者的隱私,不會危害到患者的生命安全什麼的,醫療跟電商是不一樣的,是人命關天的事,這是第一點。
第二點,在美國其實有很多資料,因為它的法規比較健全,知道什麼是能做的,什麼是不能做的,比如說我剛才提到IBM收購了很多資料,那些資料都是合法在使用的,你只要把隱私資料去掉了,這些資料都是可以合法使用甚至交易的。
在美國我看到幾億人的保險資料,上億人的病例資料,這些資料是可以分析的,這是在美國的情況。
在中國,我們可以看到,其實傳統的醫院是資訊孤島,不要說醫院和醫院之間,比如說301和協和,它的資料肯定是兩個孤島,甚至在一個資料集內部,它的系統都是逐步建立起來的,先建一個掛號系統,再建一個拍片系統,再建一個病例系統,甚至這些系統之間都是孤立的,這都是現狀。在國內來看,過去5年,衛計委,就是以前的衛生部,花了很多的力氣做系統的聯通,在區域級別把大醫院、中醫院、小醫院資料盡可能集中在一起,做了很多資料集成的工作。
第三點也是最近的消息,衛計委在江蘇和福建兩個地方試點國家的大資料中心,從簡單的資料獲取現在走向了怎麼樣分析利用這個資料,讓這個資料發生價值。所以我的感覺,整個趨勢是在往資料越來越集中,然後資料分析的價值越來越被看到和認可這樣一個趨勢在走。
雷鳴:感覺美國剛才如謝老師講的,有一些法律法規,反正在這個法律法規之上,符合的很容易就可以做了,但是如果想更深一點,估計這個難度就會非常大,需要各種認可,各種簽字,中國這一塊現在管理相對來講正在規範化,所以現在,如果致力於做這一塊創業或者研究也好,可能更多的還是要跟咱們的醫院真正有資料的地方要去做一些合作,能夠得到醫院某種支持會更好一點。
謝國彤:我再補充一點,除了國家在搞國家大資料之外,習大大投了600億做精准醫療,所以很多醫院的大教授、大專家現在有很多興趣來做這方面的工作。所以其實在中國的很多合作,也是這方面的專家,他們有資料,也積累了一段時間,希望利用一些新的人工智慧的方法來發揮資料的價值。
雷鳴:看來正好是風口,我們接著去探討這個事情,我這一塊也做了一些研究,像醫療資料,整個來講,它的整體的品質,相對比較差一點,說實話我看過一些病例系統,它的記錄、自然語言很不完善,有時候甚至找一些更高級的醫生看,記錄還發現有很多不一錯誤的地方,我們叫品質比較低的資料,就是說IBM在做的過程中,或者說您個人對這種情況,對往後的研究有什麼樣的建議?
謝國彤:這一塊關於醫療資料品質問題,我稍微多說兩句,因為我打交道的醫療資料比較多,醫療資料中有品質好的,也有品質差的,影像資料相對來說是品質比較好的,因為國內一般用的都是國外的標準,影像資料的品質反而比較好。有一些資料像病例資料,像疾病登記庫的資料,比如說中風或者高血壓、糖尿病權威機構、國家什麼中心,他花很大的力氣經過三五年搜集的資料,這樣的資料一般在三五萬人,每個患者都在1500到2000個變數,這些資料品質也非常高。
還有一類是醫療保險資料,醫療保險資料它的品質也很好,因為它很連續,不管在A醫院看還是B醫院看,最後通過醫療保險把所有的資料都關聯起來了,這是它的優點。
相對來說病例資料又再細分住院和門診病例,住院資料是品質比較高的,因為很多醫生的科研是基於住院病例上面再加工,所以他會花很多力氣,包括很多醫學院的學生下午的時候在住院科錄病例,這些資料品質都比較高,真正病例比較差的是門診病人,每個病人不超過5分鐘,醫生沒有時間錄這個資料,醫生也不覺得這個資料有價值。
資料品質確實是良莠不齊的,一開始做這個方面要訓練一個好的資料集和一個好的問題,如果一開始選了一個特難的問題,選了一個特爛的資料集,可以保證你不會有特別好的結果,可能是你的問題和資料集沒有選對。
回過頭來再講針對大量吸收的資料,其實目前也有一些技術上的探 索,就像是做資料的萃取,傳統在統計裡面有資料補全的方法,對缺失的資料進行補全,醫生覺得你補了之後不可信,現在有很多強調資料萃取的方法,怎麼樣給你一百萬的資料,能不能提煉出10萬人是連續性比較好的資料。這裡面其實還和目前比較火的GAN網路有關係,現在有一些人在嘗試,這個資料甚至是生成的資料,但是我用這個資料是從上百萬、上千萬資料中間學習出來的一個資料的分佈,有了這個資料分佈之後生成的資料,用這個資料去訓練模型,甚至可以訓練出來一個靠譜的模型,所以有很多人在做這方面的嘗試,選擇好的資料集,同時咱們國家自然的資料品質也在提高。
另外一點,也有一些技術的手段,可以再彌補一些資料品質的缺失。
雷鳴:好,剛才提到的就是我們現在超級火的對抗生成。再問一個問題,醫療這個事情,因為我們很多做技術的小夥伴,創業的時候經常說,有這麼一個事情,幾個人就去做了,包括拿幾個資料集做做做,醫療的事情最後總要落地的,一落地就要到行業,一到行業突然就發現兩眼一抹黑,你在這個領域做了很久,能不能大概講一下一個醫療科技最後能真正的去服務大眾造福百姓,這個路徑大概是什麼樣子的?中間有哪一些挑戰哪一些門檻,給想做探索的同學一些借鑒。
謝國彤:其實醫生是一個非常嚴謹的一個群體,他們每天面臨的是生與死的抉擇,讓他們變得非常謹慎,任何一個新的技術想推進到醫療領域的話,一定要有一個非常嚴謹的過程,一步一步得到醫生的信任。我之前聽到他們講一個故事,醫生花了一百年時間才接受了聽診器作為醫療的設備。
從目前來看,基本上這是有一個過程的,第一步你可以基於一些不管公開資料集還是通過跟醫生合作,基於一些歷史資料可以進行一些建模,不管你做什麼,首先證明你這個模型在歷史資料上是可以工作的,這是第一步。
第二步需要進行外部資料驗證,就是你必須要拿到一些完全從協力廠商拿到的資料,這樣的話,醫生可以進一步的加深對你這個模型的信任。通過協力廠商的資料驗證,說明這個模型在協力廠商資料上依然是穩定可靠的,這是第二步。
第三步是,我們看到一些合作就會設計一些前瞻性的研究,就是針對協力廠商模型已經驗證過了,就會設計一些針對現在的一些新的病人,用你的方法不管做診斷還是治療,去和普通的治療或者診斷來做對比。經過這樣的過程之後他才認為比較靠譜。所以這是一個非常嚴謹的認證過程,這是第一點。
第二點我想講的是,醫療的智慧決策,醫療不是一個簡單的步驟,他涉及到前期的疾病的篩查到患病的診斷,診斷完之後給患者用藥,用完藥之後做患者的預後,預測他之後病情的發展,包括對他進行生活方式的指導,包括患者的隨訪、管理,它其實是一個完整的院前、院中、院後的一個活動的鏈條。有一些是從醫生角度來看,診斷和治療這是非常關鍵的。
所以如果要做創業的話,如果你一開始就去攻最難的領域,當然會最謹慎,如果圍繞著鏈條裡面的一些上下游,就是需要大量的人工的部分,同時又不是那麼核心的診斷和治療的領域,可能會更容易被醫生和患者接受。
雷鳴:正好談到剛才講的創業問題,因為現在醫療領域是一個非常大的領域,我看到在美國,據說醫療健康領域能占到GDP的18%,中國占到6%,當然中國還有很大的空間,這6%已經了不得,中國50萬億的規模,6%就是3萬億,所以一年3萬億的市場,這裡面機會實在非常多。因此我們也看到,幾乎所有的這些大的企業都開始做。IBM當然做的時間比較久,像穀歌、百度、阿裡等等都在做,對於巨頭不斷切入的情況下,你對咱們有一些想創業的同學,或者說小型公司會有什麼樣的建議呢?就是說他應該怎麼樣思考這個問題?有什麼樣的機會?怎麼面臨一些挑戰?
謝國彤:因為我個人在IBM,我給的建議不見得靠譜,如果你聽了建議以後,創業沒有成功,別怪我。
我看到大公司有大公司的優勢,同時小的創業企業也有它的優勢,小的創業企業第一個要有核心技術。如果沒有核心技術就變成燒錢了,就拼誰資本雄厚。如果你在選擇一個比較專的領域,然後能夠真的有一些核心技術,我覺得這個是安身立命之本。
第二點,我感覺,因為小公司能夠速度更快、更貼近市場,能夠反應的更快。大公司的好處是集團軍作戰,規模很龐大,但是它的速度肯定不會像小公司這麼快,小公司如果選擇一些更貼近市場的,能夠快速在市場上看到效果這樣的一些題目,能夠盡可能的構建比較大的一些市場群,我覺得這也是一個很好的領域。
我可以去分享一下IBM收購的一個公司的情況,IBM收購了Phytel,這個公司就是專注于做人群健康管理的公司,它有技術,然後快速在美國佈局,有20個州都使用它的技術,快速的佔領了市場,所以就是,在市場上被認可,有核心技術、能夠快速的貼近市場是非常重要的。
雷鳴:我現在轉向一些同學提出的問題,在課程群裡有一個同學問到,IBM做了很多的研究,我們看到是卓有成效的,現在哪一些成果已經被廣泛使用了?另外,在中國這邊有哪一些業務是真正落地了?
謝國彤:IBM在美國目前落地的東西更多一些,因為沃森健康成立是在2015年,到現在剛剛兩年的時間,目前我剛才講的那些解決方案,其實都有具體的落地。不管是說做這種腫瘤的治療,包括像基因的治療都有落地。像腫瘤治療,中國有20家醫院在用,包括在美國、泰國、印度、新加坡就是很多地方都有在使用這樣的技術。像沃森的基因治療,在美國大概有十幾家頂尖的腫瘤機構,包括亞洲的東京大學都在使用這樣的方法進行基因治療。然後像我剛才講的真實世界資料的分析的話,IBM應該也宣佈了和世界知名大的藥企,比如輝瑞等等很多大藥企,都在使用IBM技術進行新藥的研發和上市技術的分析。
針對慢性病管理,美國有20幾個洲,包括英聯邦國家,如愛爾蘭、澳大利亞等等都在使用。跟我們的合作夥伴一起,在人工智慧的國際會議上,包括在醫學期刊上,還有新醫學國際會議上,我們陸陸續續發表了15篇文章。我們一方面科研合作,另外一方面就是怎麼樣把它變到臨床。
在臨床方面有兩個事情,一個是我剛才介紹的糖尿病管理這樣一個系統,已經在廈門市有20家社區醫院在使用,6000個患者在使用這樣的系統。
另外在上海有一家醫院,他們很快會做一個大的宣佈,利用疾病風險預測這樣的技術。一個患者以前去醫院抽完血出一個報告就可以了,但是現在會利用疾病風險模型把患者的抽血的資料和他在醫院裡面病例資料結合在一起,去給患者做一個他的疾病風險預測,如果發現這個患者是低風險的,他就不會告訴這個患者,這個患者拿完這個報告就走了。如果患者是高風險的,系統給他一個增值的報告,會告訴他風險因素是什麼,應該做一些什麼樣的事情可以規避這樣的風險,這樣的系統在上海一家非常好的三甲醫院目前已經開始使用。
雷鳴:人工智慧在醫學領域中的推進過程中,人和AI以一種什麼樣的關係往前演進?未來走向哪裡?
謝國彤:首先,第一個,要不要取代人的問題,IBM一直有一個明確的定義,IBM就是增強智慧,定位就是怎麼樣變成一個人類能力的放大器,讓人能夠看的更遠、聽的更准或者記得更准、算的更快,但是並不是要取代人,所以看到目前我們在醫療裡面講的各種案例,其實我跟很多醫生聊,他說其實我們給他的就像一個顯微鏡,從資料中間看出來一些他以前看不到的東西,這些東西能夠幫助他更好的做診斷和治療,這是一個定位。
第二點其實我們也可以看到,因為有了這樣一個智慧技術,其實醫生提高了工作效率,或者避免了犯錯誤,提高工作效率之後就有了更多的時間,可以看到現在醫生一天的時間都用來幹什麼,我們跟很多醫生一起工作,醫生每天早上八點以前就要到醫院,一天要看門診一百個病人,看完病人之後還不能走,還要做科研、寫文章,週末還要寫文章,其實他們有很多創新的訴求,很多醫生,比如說像北醫的很多醫生,都是非常有理想和追求的,希望看到一些疑難病症的時候,來做一些創新的事情,但是受限於目前門診的壓力,大醫院人滿為患,他們很難去做這樣的事情。我跟很多醫生真誠溝通過,我說你們覺得AI對你們是一個威脅嗎?至少大醫院醫生沒有覺得是一個危險,他們覺得有很多創新的事情,以前受限於精力沒有時間做,如果效率可以提高,以前看一個腸鏡看兩個小時,現在看20分鐘,省出來的時間可以幹一些更有價值創新的事情,我覺得這應該是一個相互輔助的定位。
雷鳴:我覺得講的特別好,就是說很長時間內,我覺得醫生和AI之間應該是一種共生的關係,即便醫生坐在那兒一上午看了50個病,他可能也沒有太多成就感,這些病人都是重複的,如果這些事情交給AI來處理,其實醫生很高興,醫生研究怎麼攻克癌症和愛滋病這些人類的難題,醫生有更多時間去做這些事,就更有意義。
時間原因,再問最後一個問題,你也講到,醫療是一個責任重大的學科,現在人工智慧如火如荼發展的很快,現在也有很多投資。你也提到,依圖又得到了幾億人民幣的投入,另外我們也講到,醫療是非常嚴謹、非常負責任的一個學科,未來你覺得AI+醫療推進速度上,5年、10年、15年這些時間上,大概是以什麼樣的速度和方式演變,改變醫療領域的時間表是怎樣的?
謝國彤:這個問題挺大的,要做預言是預測未來,我看到,首先剛才也提到了資本大量湧入,雖然會帶來泡沫,但是也有好處,能夠吸引最頂尖的人才進入這樣一個行業。
我看到,在最新的像《新英格蘭》這樣一些醫學雜誌上,醫生發表了很多觀點,從他們角度來看新技術怎麼改變醫療領域,我覺得在一些領域的話,在可預見的3到5年就會看到很多結果,這不是我的觀點,我應用《新英格蘭》醫生的觀點,他講到,影像科的工作,很多是人工智慧可以發揮作用的,包括對很多複雜疾病的診斷和預後,這一塊就涉及到,以前沒有什麼好辦法,但是又有影像,又有病例,又有化驗結果,以前決策很困難,以後他們覺得人工智慧會發揮一些獨到的作用。
當然,我們也看到,以藥物為例,這也是美國剛剛通過的一個政策,就是說所有上市藥物的 repurposing,就是把上市藥物做其他的用途,比如說這個藥物以前治療A病,現在用來治療B病,這樣的審批不再需要標準的RCT了,用真實事件證據就可以,這都是政策上比較認可的例證,或者說從醫生的角度來說,從接受度或者各種角度來說比較認可的。這些領域我覺得在未來3到5年之內應該可以看到非常快速的發展。
雷鳴:非常感謝謝老師的精彩分享!