您的位置:首頁>設計>正文

微軟公司利用AI技術為殘障人士群體提供幫助

儘管與AI相關的事務需要值得認真考量, 但這並不妨礙我們利用AI成果為殘障人士謀求福利。

上圖為微軟公司Azure工程技術負責人James Kavanagh、戰略政策顧問Dave Heiner、首席講述者Steve Clayton以及首席無障礙官Jenny Lay-Flurrie展開小組討論。

對於微軟公司而言, “無障礙設計”是一項很重要的概念, 這一概念也是其各類, 包括Seeing AI在內的人工智型產品的基本構建思路。

本週三微軟宣佈在其系列AI工具之外推出了一款名為Seeing AI的免費移動應用, 這款應用通過描述周圍的世界來説明存在視覺障礙的患者群體。 這個將深度學習和Microsoft認知服務結合在一起的應用專案仍處於研究當中, 目前可以閱讀文檔, 理解標題、段落和目錄等結構化資料, 並能夠利用條碼進行產品識別。

此外, 其還能夠識別並描述其它應用程式當中的圖像, 甚至能夠精確定位人物面部位置, 並提供其外觀描述, 不過相機的品質與照明情況可能對描述結果產生影響。

在本屆於悉尼召開的微軟人工智慧未來大會上, 微軟公司駐墨爾本雲解決方案架構師Kenny Johar Singh展示了Seeing AI, 並希望利用其為現實世界場景帶來助益。

儘管Singh由於退化性視網膜疾病而喪失了75%視力, 但科技已經成為一種“力量源泉”, 幫助他在技術行業當中建立起自己的職業生涯。

在使用Seeing AI之前, Singh需要在妻子的説明下才能彌合他與現實世界之間的資訊鴻溝。 但憑藉著新應用的支持, 如今他已經可以更加獨立地生活。

在與會者面前, Singh利用這款應用進行產品掃描, 而該應用則正確地將其識別為“Gounce牌椰子檸檬味天然能量球”。

他在本屆微軟峰會上解釋稱, “它為我帶來了極大的幫助。 它負責告訴我檢測到的物件的屬性,

而我則考慮營養方面的因素——包括蛋白質、碳水化合物、脂肪等等。 我已經能夠意識到自己正在挑選什麼, 這基本上意味著我可以完全獨立地完成食物採購。 我的妻子很喜歡它, 因為她不再需要事無巨細地為我提供幫助。 ”

Singh還將自己的手機攝像頭指向了微軟首席無障礙官Jenny Lay-Flurrie, 而Seeing AI應用則將Lay-Flurrie描述為“一位擁有棕色頭髮、佩戴眼鏡, 而且看起來神色愉悅的54歲的女性。 ”其中三項描述非常準確, 只在年齡猜測方面出現了誤差。

Lay-Flurrie在本次微軟峰會上指出, “盲人在拍照時往往面臨困難, 而我們經常看到不少極端的圖像案例。 對於品質不高的圖像, 我們可以使用適應性演算法並引入機器學習機制。 有時候圖像內容也比較雜亂,

但認知服務的整體品質將逐步成倍增加, 這是因為我們將更多此類資料樣本加入其中。 ”

微軟公司在Office 365與Windows 10等平臺上提供的最新協助工具亦在被澳大利亞國立大學法律講師Cameron Roles所使用, 他在一份聲明中表示:“在我看來, 這絕對是有史以來對盲人而言最激動人心的時刻。 ”

作為家中的三胞胎之一, 擔任澳大利亞視力協會董事的Roles早產了三個月, 最終雖然得救但卻遭遇失明。 對他來說, Office 365與Windows 10等平臺中的最新協助工具無疑起到了重要的作用。

舉例來說, 微軟公司最近將文本替換引擎整合至Windows 10內核當中, Lay-Flurrie稱這是一項“重大的舉措”, 意味著使用協力廠商螢幕閱讀器的視覺障礙使用者或者微軟自己的Narrator(負責大聲朗讀並描述事件)將能夠獲得圖像內容描述資訊,

而非單純意識到螢幕上存在圖像。

微軟公司最近還推出了Eye Cnotrol, 這是一項適用於Windows 10的內置眼動追蹤功能, 可幫助患有運動神經元症(簡稱MND)與其它行動障礙類疾病的使用者駕馭其電腦。 此項功能目前僅可搭配瑞典眼動追蹤方案供應商Tobii公司的Eye Tracker 4C裝置使用, 但微軟正在努力增加更多對類似設備的支援能力。

Eye Control內部具備一項被稱為“形狀寫入”的功能, 允許用戶通過查看單詞的首字母、尾字母以及“二者之間的其它字母”加快打字速度。 軟體公司於今年8月表示, “預測出的單詞提示將按照單詞最後一個關鍵字母顯示”, 如果預測 不正確, 用戶亦可選擇其它預測選項。

微軟方面還在Windows 10中引入了色盲濾波器, Lay-Flurrie提到這部分適用群體更為廣泛——每九個人中即有一人遭受色盲困擾。

存在聽力障礙的Lay-Flurrie指出,雖然我們需要考慮AI在隱私與安全性方面產生的潛在影響,但亦應同時看到其積極的一面。她解釋稱,全球有十億殘疾人,而AI將能夠在日常生活與工作環境當中為這部分群體賦予力量。

她解釋稱,“我還關注自己的女兒,她今年10歲,患有孤獨症。所謂孤獨症,是指病患有時候無法理解社交線索及社交語言,無法準確識別面部表情,因此常常誤解我們說的話……所以我熱愛AI技術的潛能與力量,並開始意識到其將在認知與心理健康領域掀起的創新浪潮。在這一領域,AI能夠理解這些社交線索,並利用視覺刺激進行解讀。目前存在某些治療性應用(要求病患觀看YouTube視頻),如果能夠將其真正引入現實生活,病患就能夠在真實場景中進行學習——而不必傻坐在那裡。”

“我認為即時應用程式可以改變人們的生活,包括在工作場所中使用PowrePoint Designer的方式,説明人們充分發揮其天賦……而且殘障人士需要能夠以同樣的方式完成這些工作。認知服務與一些強大的引擎完全能夠為我們提供這樣的能力。”

Lay-Flurrie同時提到,殘疾人同樣能夠在創新領域作出重大貢獻。

她在本屆微軟峰會上表示,“殘疾人士擁有獨特的觀察視角,並能夠以此為基礎為創新提供重要的貢獻,同時加快我們發展人工智慧的速度。”

微軟首席講述者Steve Clayton在會議上表達了類似的觀點,指出由且為殘疾人士設計的創新成果將能夠發揮更為廣泛的作用。

他指出,“在剛剛開始學習設計中的包容性時,我第一次意識到街邊的過渡緩坡其實是為坐在輪椅上的人們發明的。事實證明,如果正常人帶有大量物品或者穿著輪滑鞋,這些緩坡同樣非常有用。因此我想到,如果我們專門為視力受損或其他殘疾人士設計一項功能,那其很可能同樣亦會為普通用戶帶來顯著助益。”

隨著電腦視覺、主意識別以及自然語言理解能力的進步,微軟公司已經能夠將AI集成至其它產品當中,同時提供新的AI驅動型解決方案。

微軟方面已經開發出能夠將錯誤率保持在5.1%的語音辨識技術,而圖像識別方案的錯誤率更是僅為3.5%。

微軟公司目前亦在主導斯坦福大學的競賽項目,利用維琪百科中的資訊來測試AI系統如何回答與文本段落相關的問題。預計該競賽產生的結果,將可用于必應搜索以及聊天機器人反應等領域。

微軟公司在本週四的聲明中表示,“這意味著利用AI的深度學習能力,電腦將可識別對話中的人物語言、提供相關答案並進行即時翻譯。”

“這還意味著工廠車間裡的電腦能夠區分所製造部件與人類員工的手臂,而自動駕駛車輛亦區分街道中滾動的球體與蹣跚學步的孩子。”

在澳大利亞,坎培拉大學開發出Lucy與Bruce聊天機器人,其利用微軟Bot框架與微軟認知服務,負責提供語言理解智慧服務以簡化面向學生與教職員工的支持。

在啟動之後,Lucy將接入該大學的Dynamics 365平臺,並在Lucy無法回答問題時提交求助申請。該大學還在探索利用Bruce將IT服務申請交付至工作人員加以記錄的可能性。

澳大利亞證券交易所上市包裝製造商Pact集團也在與微軟公司合作,利用其認證服務電腦視覺方案進行面部與差異識別,從而提高工作場所的安全性水準。

Pact公司的Workroom Kiosk Demo能夠識別車間環境中的每一名員工,並根據對各員工所執行工作任務的背景資訊判斷其是否穿著有合適的安全裝備,同時對其行為加以監控。如果存在潛在問題,團隊負責人會立即收到警報。目前該系統的現場試用版本即將發佈。

微軟公司還公佈了翻譯工作的進展,其進一步擴大神經網路的使用範圍,旨在提升各類譯者支援型產品的文本與語音翻譯效果。

對於希望學習中文的用戶,微軟公司亞洲研究院將“很快”發佈一款新的移動應用,其將成為一位始終線上且基於AI技術的語言學習助手。

另外,微軟方面還為AI開發人員及資料科學家公佈了AVisual Studio Tools for AI,據稱其中整合了Visual Studio的調試與富文本編輯等功能,且可支援微軟Cognitive Toolkit、穀歌Tensorflow以及Caffe等深度學習框架。Visual Studio Tools for AI利用現有代碼以支援Python、C/C++/C#,同時可為Cognitive Toolkit BrainScript額外提供支援。

面向Azure IoT Edge的AI功能則允許開發人員利用C、Java、.NET、Node.js以及Python等語言實現基於容器的模組的構建與測試工作,同時簡化邊緣位置工作負載與機器學習模型的部署與管理流程——目前這些功能已經正式發佈。

Clayton在一份聲明中指出,“AI的宗旨在於利用智慧技術增強人類的聰明才智,這種智慧技術能夠歸因、理解並與人類交互,從而幫助我們解決社會當中所存在的一系列根本性挑戰。”

Lay-Flurrie提到這部分適用群體更為廣泛——每九個人中即有一人遭受色盲困擾。

存在聽力障礙的Lay-Flurrie指出,雖然我們需要考慮AI在隱私與安全性方面產生的潛在影響,但亦應同時看到其積極的一面。她解釋稱,全球有十億殘疾人,而AI將能夠在日常生活與工作環境當中為這部分群體賦予力量。

她解釋稱,“我還關注自己的女兒,她今年10歲,患有孤獨症。所謂孤獨症,是指病患有時候無法理解社交線索及社交語言,無法準確識別面部表情,因此常常誤解我們說的話……所以我熱愛AI技術的潛能與力量,並開始意識到其將在認知與心理健康領域掀起的創新浪潮。在這一領域,AI能夠理解這些社交線索,並利用視覺刺激進行解讀。目前存在某些治療性應用(要求病患觀看YouTube視頻),如果能夠將其真正引入現實生活,病患就能夠在真實場景中進行學習——而不必傻坐在那裡。”

“我認為即時應用程式可以改變人們的生活,包括在工作場所中使用PowrePoint Designer的方式,説明人們充分發揮其天賦……而且殘障人士需要能夠以同樣的方式完成這些工作。認知服務與一些強大的引擎完全能夠為我們提供這樣的能力。”

Lay-Flurrie同時提到,殘疾人同樣能夠在創新領域作出重大貢獻。

她在本屆微軟峰會上表示,“殘疾人士擁有獨特的觀察視角,並能夠以此為基礎為創新提供重要的貢獻,同時加快我們發展人工智慧的速度。”

微軟首席講述者Steve Clayton在會議上表達了類似的觀點,指出由且為殘疾人士設計的創新成果將能夠發揮更為廣泛的作用。

他指出,“在剛剛開始學習設計中的包容性時,我第一次意識到街邊的過渡緩坡其實是為坐在輪椅上的人們發明的。事實證明,如果正常人帶有大量物品或者穿著輪滑鞋,這些緩坡同樣非常有用。因此我想到,如果我們專門為視力受損或其他殘疾人士設計一項功能,那其很可能同樣亦會為普通用戶帶來顯著助益。”

隨著電腦視覺、主意識別以及自然語言理解能力的進步,微軟公司已經能夠將AI集成至其它產品當中,同時提供新的AI驅動型解決方案。

微軟方面已經開發出能夠將錯誤率保持在5.1%的語音辨識技術,而圖像識別方案的錯誤率更是僅為3.5%。

微軟公司目前亦在主導斯坦福大學的競賽項目,利用維琪百科中的資訊來測試AI系統如何回答與文本段落相關的問題。預計該競賽產生的結果,將可用于必應搜索以及聊天機器人反應等領域。

微軟公司在本週四的聲明中表示,“這意味著利用AI的深度學習能力,電腦將可識別對話中的人物語言、提供相關答案並進行即時翻譯。”

“這還意味著工廠車間裡的電腦能夠區分所製造部件與人類員工的手臂,而自動駕駛車輛亦區分街道中滾動的球體與蹣跚學步的孩子。”

在澳大利亞,坎培拉大學開發出Lucy與Bruce聊天機器人,其利用微軟Bot框架與微軟認知服務,負責提供語言理解智慧服務以簡化面向學生與教職員工的支持。

在啟動之後,Lucy將接入該大學的Dynamics 365平臺,並在Lucy無法回答問題時提交求助申請。該大學還在探索利用Bruce將IT服務申請交付至工作人員加以記錄的可能性。

澳大利亞證券交易所上市包裝製造商Pact集團也在與微軟公司合作,利用其認證服務電腦視覺方案進行面部與差異識別,從而提高工作場所的安全性水準。

Pact公司的Workroom Kiosk Demo能夠識別車間環境中的每一名員工,並根據對各員工所執行工作任務的背景資訊判斷其是否穿著有合適的安全裝備,同時對其行為加以監控。如果存在潛在問題,團隊負責人會立即收到警報。目前該系統的現場試用版本即將發佈。

微軟公司還公佈了翻譯工作的進展,其進一步擴大神經網路的使用範圍,旨在提升各類譯者支援型產品的文本與語音翻譯效果。

對於希望學習中文的用戶,微軟公司亞洲研究院將“很快”發佈一款新的移動應用,其將成為一位始終線上且基於AI技術的語言學習助手。

另外,微軟方面還為AI開發人員及資料科學家公佈了AVisual Studio Tools for AI,據稱其中整合了Visual Studio的調試與富文本編輯等功能,且可支援微軟Cognitive Toolkit、穀歌Tensorflow以及Caffe等深度學習框架。Visual Studio Tools for AI利用現有代碼以支援Python、C/C++/C#,同時可為Cognitive Toolkit BrainScript額外提供支援。

面向Azure IoT Edge的AI功能則允許開發人員利用C、Java、.NET、Node.js以及Python等語言實現基於容器的模組的構建與測試工作,同時簡化邊緣位置工作負載與機器學習模型的部署與管理流程——目前這些功能已經正式發佈。

Clayton在一份聲明中指出,“AI的宗旨在於利用智慧技術增強人類的聰明才智,這種智慧技術能夠歸因、理解並與人類交互,從而幫助我們解決社會當中所存在的一系列根本性挑戰。”

Next Article
喜欢就按个赞吧!!!
点击关闭提示