VR研究:谷歌借助純眼部追蹤預測面部表情
有人說判斷是否真笑要看眼睛。當然,這是因為我們都需要學習這種假笑。但我們眼球區(qū)域的微表情有一個額外的好處:VR研究人員利用這一點來判斷面部其他區(qū)域正在做什么。
谷歌研究院剛剛發(fā)布了一個有趣的小項目,試圖通過在頭顯內(nèi)追蹤眼睛來掌握用戶表情。在眼球、眉毛、眼部皺紋等區(qū)域之間,我們其實可以發(fā)現(xiàn)不少的信息。
無論如何,這部分信息足以讓深度學習系統(tǒng)判斷出一些基本的表情和程度,而且還相當精準。系統(tǒng)能夠分辨出“開心”和“驚喜”,但數(shù)據(jù)尚不夠豐富,不足以識別出“幸災樂禍”或“使壞”。
谷歌研究院的想法是,通過最低程度的監(jiān)測工具(頭顯內(nèi)的眼部追蹤傳感器),你至少能大概知道用戶面部正在做什么。谷歌研究院已經(jīng)發(fā)表了相關論文,當然,你也可以在即將召開的SIGGRAPH大會上聽取他們的報告。
【版權聲明】:本站內(nèi)容來自于與互聯(lián)網(wǎng)(注明原創(chuàng)稿件除外),如文章或圖像侵犯到您的權益,請及時告知,我們第一時間刪除處理!謝謝!