這次的演講者是許富淞老師,一位外表和藹可親的學長,他給我們帶來的演講是「臉部情緒辨識的原理與平台操作」,臉部辨識的應用越來越多,不管是相機上面的微笑偵測,FB上的照片人臉辨識,還是動畫產業使用抓取人的臉部套用到3D人物上,都是臉部辨識的應用,甚至可以結合AR。而學長給我們看的是用來判斷臉部的情緒,用來判斷六種情緒,Happy、Sadness、Anger、Disgust、Fear、Surprised,外加一個無表情的Natural,判斷的準則是利用Facial Action Coding System(FACS)編碼來判斷,利用人臉解剖學特點來劃分不同表情的運動單元(AU),就能判斷使用者的臉部情緒,根據網路所查的資料,這種編碼的表情的捕捉準確率高達90%。
在真正用軟體時,發現太慢的電腦跑起來就會有點吃力,可能視訊所擷取的影像每一張都要處裡吧!而如果周圍太暗,電腦也就不太能判斷臉部,所以判斷的準則對視訊所擷取影像依賴度很高。還有要強迫讓自己的臉擺成別種情緒也很困難,常常依照編碼準則去改變臉部肌肉位置,擺出來的表情也就很不自然,也不太能被判斷成別種表情,所以我想可能自然的表情被判斷的成功率比較高吧!還有多重人臉辨識,所要求的硬體也就更高了。
不過這種只靠外表還是有判斷的盲點,如果有個人無表情時的臉也笑笑的,或是隨時臉的表情一直都很臭,是不是能真正的判斷出他「現在的情緒」?有些人臉部受過傷手術過,或者是臉部打肉毒桿菌所造成的臉部肌肉僵硬,在判斷上就會失準,不過這種對大部分的人來說應該是適用的。這就很像利用網頁製作App一樣,我們並不能做出適用「所有人」的東西,可是一定要適用「大部分」的人,所以臉部辨識是否能加其他的設備來交叉判斷以提升辨識率,也是我們可以研究的議題。
就因為臉部辨識在諸多領域都有其應用,所以它的願景應該是很好的,我相信未來會有更有趣更新奇的應用出現,不管商業或是學術甚至是互動媒體上,在科技進步的基礎下,相信在人臉辨識上,辨識率會越來越準確,應用會越來越廣泛。
沒有留言:
張貼留言