這張圖片顯示了ABC(近似貝葉斯計算)驅動參數如何更精准地預測使用者的行為。
引自:阿爾托大學
電腦能夠通過捕捉人的眼神和動作解釋他們的行為。
來自阿爾托大學、伯明罕大學和奧斯陸大學的研究者們為實現電腦僅通過觀察就能夠瞭解人的心理活動創造了條件。 在新發表的會議文章中, 研究者們展示了僅通過觀察使用者點擊“開始”功能表的時間, 電腦就能夠建立可以複製相似行為的模型並精准估計使用者視覺系統的特點,
儘管在人工智慧方面人類已有了顯著的突破, 但是對於電腦來說理解使用者的行為原因一直都非常困難。 描述個人能力及目標的認知模型可以很好地解釋這些行為並因此能夠在新情境下預測個人行為。 然而, 從實際可用的間接資料中瞭解這些模型是根本辦不到的。
來自阿爾托大學的博士生Antti Kangasrääsiö解釋說:“我們這種方法的益處是與‘黑匣子’方法相比, 它所需的資料要少很多。 之前執行這種調試的方法不僅需要大量人力而且還需要很多準確的觀測資料, 所以至今都一直限制著這些模型的運用。 ”
這種方法以近似貝葉斯計算為基礎,
來自阿爾托大學的機器學習教授Samuel Kaski說:“我們將能夠推斷出一個人的模型並類比他如何在全新情況下學會行動。 ”
另一位來自阿爾托大學的使用者介面教授Antti Oulasvirta說:“我們對於智慧使用者介面領域的這項工作的前景感到很興奮。 ”
他還補充道:“在未來, 電腦將能夠以類似人類理解彼此的方式來理解人類。 它不僅能夠更好地預測潛在變化帶來的好處,
這些成果將會於2017年5月在美國丹佛舉辦的世界最大人機交互大會CHI中展出。