2012年11月5日 星期一

【講座】臉部情緒辨識的原理與平台操作


這一次演講請到以前就讀本校的學長,學長外表看起來很和善,感覺就是很好說話。這次主要介紹的是臉部的情緒辨識,一開始便教我們,人的臉部辨識情緒的分別,他主要有分HappySadnessAngerDisgustFearNaturalSurprised學長是依照人的各種表情,臉部肌肉的表現去撰寫程式,在各個同學前往測試的狀況來看,我本身是覺得『開心』這個表情很難模擬出來。

人的臉部情緒表現偵測有兩種方法,一種是以人的各種表情做為範本來當作基本考量,另一種則是先偵測你的臉部無表情當作起始範本,再來根據產生的變化的臉部表情去做判斷。機器還是有需要改良的空間,最後我們變成為了要機器呈現我們所要的表情而去特定演那個表情,感覺有點本末倒置。也許是此系統是依照阿豆仔的臉孔變化做為基準,阿豆仔的臉比較深邃,做起表情來比較明顯,亞洲人可能就跟學長所說的一樣,比較含蓄一點,表情自然就沒阿豆仔那麼的誇張。

其實我對臉部情緒偵測這個技術很感興趣,因為人的表情變化真的是變化多端,目前的階段,大概也只有我們人類自己可以分辨出人類的表情吧。打個比方,一隻狗如果很開心的話,我們人類從狗的面容是完全看不出端倪的,但是卻可以從牠的肢體語言上得知,像搖尾巴啦之類的。因此,要由一個機器程式來辨識人類的情緒表現內容,我認為還有一段很長的路要走。

由於本人是對3D動畫感興趣的,因此在做動畫的過程中,有個系統是讓配音員穿上臉部表情擷取系統,再來聲音演出,此系統會在演員的臉上放置很多個接收器,只要演員做出任何的臉部表情,接收器都可以捕捉到演員的臉部肌肉運動,讓電腦可以去抓取配音員的臉部肌肉表情動作,我覺得這種系統才是做到最完善的。


在動畫裡,聲音是要配合動畫人物的嘴型和臉的表情,如果不這麼做的話,會導致人物配上聲音會有很不自然的表現,或是聲音與動畫中的人物嘴型不吻合,造成整體動畫的失調。

我是覺得如果學長可以搭配這種臉部擷取系統跟他自己的研究成果做結合的話,相信一定會有比現在更好的成果才對。

沒有留言:

張貼留言