شناسایی حالت چهره با استفاده از نرمالیزاسیون هندسی و تبدیل موجک مختلط Dual-Tree

نویسندگان

1 دانشجوی دکترای دانشکده مهندسی برق - دانشگاه صنعتی امیرکبیر

2 دانش‌آموخته کارشناسی ارشد دانشکده مهندسی برق - دانشگاه صنعتی امیرکبیر

3 دانشیار دانشکده مهندسی برق - دانشگاه صنعتی امیرکبیر

چکیده

چکیده: در سال­های اخیر شناسایی حالت چهره به دلیل کاربردهای فراوان موردتوجه زیادی در تحقیقات بینایی ماشین قرار گرفته است. به دلیل تنوع و تغییرپذیری حالت­ها، شناسایی حالت چهره با دقت بالا هنوز هم به‌عنوان یک مسئله چالش‌برانگیز مطرح است. در این مقاله روش نوینی ارائه می­شود که هم‌زمان با حذف تنوع هندسی در چهره، از استخراج ویژگی­های دقیق بهره می­برد. برای این کار از مدل هندسی میانگین برای نرمالیزاسیون و حذف تنوع هندسی تصاویر چهره و در مرحله بعد از تبدیل موجک مختلط Dual-Tree برای استخراج ویژگی­های ظاهری استفاده شده است. این تبدیل موجک یک تبدیل جهت­دار با قابلیت تشخیص لبه­ها در زوایای مختلف و دارای خاصیت تغییرناپذیری نسبی در برابر جابجایی است. این نوآوری، یعنی استفاده هم‌زمان از نرمالیزاسیون هندسی و تبدیل موجک مذکور، دقت الگوریتم را در برابر استفاده تک­تک از این روش­ها بیش از 5% افزایش می­دهد؛ به‌طوری‌که با این روش، نرخ شناسایی هفت حالت چهره بر روی پایگاه داده CK+ برابر با 78/93% است، که در برابر معتبرترین منابع تحقیقاتی اخیر در این پایگاه داده دقت قابل‌توجهی است.

کلیدواژه‌ها


[1]J. Fasel and J. Luettin, “Automatic facial expression analysis: a survey,” Pattern Recognition, vol. 36, pp. 259-275, 2003.
[2]Y. Tian, T. Kanade and J. Cohn, Handbook of Face Recognition, Springer, 2005 (Chapter 11. Facial Expression Analysis).
[3]P. Ekman and W.V. Friesen, “Constants across cultures in the face and emotion,” Journal of Personality Social Psychology, vol. 17, no. 2, pp. 124–129, 1971.
[4]P. Ekman and W. Friesen, Pictures of Facial Affect, Consulting Psychologists, 1976.
[5]H. Kobayashi and F. Hara. “Recognition of six basic facial expression and their strength by neural network,” in Proceedings of International Workshop Robot and Human Communication, pp. 381-386, 1992.
[6]H. Kobayashi and F. Hara. “Recognition of mixed facial expression by neural network,” IEEE International Workshop Robot and Human Communication, pp. 387-391, 1992.
[7]L. Zhang and D. Tjondronegoro, “Facial expression recognition using facial movement features,” IEEE Transaction on Affective Computing, vol. 2, no. 4, pp. 219-229, 2011.
[8]R. Xiao, Q. Zhao, D. Zhang and P. Shi, “Facial expression Recognition on multiple manifolds,” Pattern Recognition, vol. 44, no. 1, pp. 107-116, 2011.
[9]G. Zhao and M. Pietikäinen, “Dynamic texture recognition using local binary patterns with an application to facial expressions,” IEEE Transaction on Pattern Analysis and Machine Intelligence, vol. 29, no. 6, pp. 915-928, 2007.
[10]G. Zhao and M. Pietikäinen, “Boosted multi-resolution spatiotemporal descriptors for facial expression recognition,” Pattern Recognition Letters, vol. 30, no. 12, pp. 1117-1127, 2009.
[11]N-S. Pai and S-P. Chang, “An embedded system for real-time facial expression recognition based on the extension theory,” Computers and Mathematics with Applications, vol. 61, no. 8, pp. 2101-2106, 2011.
[12]J. Daugmen, “Complete discrete 2d Gabor transforms by neutral networks for image analysis and compression,” IEEE Transaction on Acoustic, Speech and Signal Processing, vol. 36, no. 7, pp. 1169–1179, 1988.
[13]R. Ptucha and A. Savakis, “Manifold based sparse representation for facial understanding in natural images,” Image and Vision Computing, vol. 31, no. 5, pp. 365–378, 2013.
[14]C. Shan, Sh. Gong and P. W. McOwan, “Facial expression recognition based on Local Binary Patterns: A comprehensive study,” Image and Vision Computing, vol. 27, no. 6, pp. 803-816, 2009.
[15]P. Lucey, J. F. Cohn, T. Kanade, J. Saragih, Z. Ambadar and I. Matthews, “The extended Cohn-Kanade dataset (CK+): A complete expression dataset for action unit and emotion-specified expression,” in Proceedings of the Third International Workshop on CVPR for Human Communicative Behavior Analysis (CVPR4HB 2010), San Francisco, USA, pp. 94-101, 2010.
[16]P. Martins and J. Batista, “Identity and expression recognition on low dimensional manifolds,” in 16th IEEE International Conference on Image Processing (ICIP), pp. 3341 – 3344, 2009.
[17]Ch. Ch. Chang and Ch. J. Lin, “LIBSVM: a library for support vector machines,” ACM Transactions on Intelligent Systems and Technology, 2012. available at http://www.csie.ntu.edu.tw/~cjlin/papers/libsvm.pdf >.
[18]A. Lanitis, Ch. J. Taylor and T. F. Cootes, “Automatic interpretation and coding of face images using flexible models,” IEEE Transaction on Pattern Analysis and Machine Intelligence, vol. 19, no. 7, pp. 743-756, 1997.
[19]C. Martin, U. Werner and H.-M. Gross, “A real-time facial expression recognition system based on active appearance models using gray images and edge images,” in 8th IEEE International Conference on Face and Gesture Recognition, pp. 1-6, 2008.
[20] I. Matthews and S. Baker, “Active appearance models revisited”, International Journal of Computer Vision, vol. 60, no. 2, pp. 135-164, 2004.
[21]W. Selesnick, R. G. Baraniuk and N. G. Kingsbury, “The dual-tree complex wavelet transform,” IEEE Signal Processing Magazine, vol. 22, no. 6, pp. 123-151, 2005.
[22]C, C. Liu and D. Q. Dai, “Face recognition using dual-tree complex wavelet features,” IEEE Transactions on Image Processing, vol. 18, no. 11, pp. 2593-2599, 2009.
[23]T. Kanade, J. F. Cohn and Y. Tian, “Comprehensive database for facial expression analysis,” in Proceedings of the Fourth IEEE International Conference on Automatic Face and Gesture Recognition (FG'00), Grenoble, France, pp. 46-53, 2000.
[24]M. S. Islam and S. Auwatanamongkol, “A novel feature extraction technique for facial expression recognition,” International Journal of Computer Science Issues, vol. 10, no. 3, pp. 9-14, 2013.
[25]S. Yang and B. Bhanu, “Understanding discrete facial expressions in video using an emotion avatar image,” IEEE Transaction on Systems Man Cybernetics, Part B, Cybernetics, vol. 42, no. 4, pp. 980-992, 2012.
[26]A. R. Rivera, J. R. Castillo and O. Chae, “Local directional number pattern for face analysis: face and expression recognition,” IEEE Transaction on Image Processing, vol. 22, no. 5, pp. 1740 - 1752, 2013.