افزایش کیفیت ادغام تصاویر MRI و PET با استفاده از ترکیب موجک گابور و مدل شبکیه

نویسندگان

1 فارغ التحصیل کارشناسی ارشد

2 عضو هیئت علمی دانشکده مهندسی برق و کامپیوتر دانشگاه تبریز

چکیده

چکیده: هدف ادغام تصویر، ترکیب دو یا چند تصویر برای رسیدن به یک تصویر واحدی است که نتیجه آن افزایش کیفیت و دقت تفسیر تصاویر است. دستگاه‌های تصویربرداری عملکردی مانند PET (مقطع‌نگاری با نشر پوزیترون)، تصاویری با محتوی طیفی بالا اما اطلاعات مکانی پایین تولید می‌کنند. در مقابل تصاویر حاصل‌شده توسط دستگاه‌های تصویربرداری ساختاری همچون MRI (تصویربرداری تشدید مغناطیسی)، دقت مکانی خوب و طیفی پایینی دارند. نوآوری روش ادغام ارائه‌شده، استخراج ویژگی‌های مکانی تصاویر ساختاری توسط موجک گابور و تزریق آن به تصاویر کارکردی است. این الگوریتم یک روش ترکیبی است که از توان بالای حفظ اطلاعات طیفی ادغام مدل شبکیه چشم استفاده می‌کند. روش پیشنهادشده با روش‌های IHS، Brovey، PCA، تبدیل موجک گسسته، NSCT و مدل ساده شبکیه مقایسه شده است. برای ارزیابی کمی الگوریتم ارائه‌شده از چهار روش ارزیابی معروف و متداول استفاده شده است. نتایج کیفی و کمی، حاکی از بهبود و پیشرفت عمده عملکرد روش ادغام ارائه‌شده است.

کلیدواژه‌ها


[1]B. V. Dasarathy, “Information fusion in the realm of medical applications – A bibliographic glimpse at its growing appeal,” Information Fusion, vol. 13, no. 1, pp. 1-9, 2012.
[2]S. Daneshvar and H. Ghassemian, “MRI and PET image fusion by combining IHS and retina-inspired models,” Information Fusion, vol. 11, no. 2, pp. 114-123, 2010.
[3]A. Ardeshir Goshtasby and S. Nikolov, “Image fusion: Advances in the state of the art,” Information Fusion, vol. 8, no. 2, pp. 114-118, 2007.
[4]G. Piella, “A general framework for multiresolution image fusion: from pixels to regions,” Information Fusion, vol. 4, no. 4, pp. 256-280, 2003.
[5]B. Yang and S. Li, “Pixel-level image fusion with simultaneous orthogonal matching pursuit,” Information Fusion, vol. 13, no. 1, pp. 10-19, 2012.
[6]R. S. Blum, “On multisensor image fusion performance limits from an estimation theory perspective,” Information Fusion, vol. 7, no. 3, pp. 250-263, 2006.
[7]C. Y. Wen and J. K. Chen, “Multi-resolution image fusion technique and its application to forensic science,” Forensic Science International, vol. 140, pp. 217-232, 2004.
[8]X. Luo, J. Zhang and Q. Dai, “A regional image fusion based on similarity characteristics,” Signal Processing, vol. 92, no. 5, pp. 1268-1280, 2012.
[9]T. Li and Y. Wang, “Biological image fusion using a NSCT based variable-weight method,” Information Fusion, vol. 12, no. 2, pp. 85-92, 2011.
[10]Q. Guo, S. Chen, He. Leung and S. Liu, “Covariance intersection based image fusion technique with application to pansharpening in remote sensing,” Information Sciences, vol. 180, no. 18, pp. 3434-3443, 2010.
[11]J. Nünez, X. Otazu, O. Fors, A. Prades, V. Palà and R. Arbiol, “Multiresolution-based image fusion with additive wavelet decomposition,” IEEE Transactions on Geoscience and Remote Sensing, vol. 37, no. 3, pp. 1204-1211, 1999.
[12]N. Mitianoudis and T. Stathaki, “Pixel-based and region-based image fusion schemes using ICA bases,” Information Fusion, vol. 8, no. 2, pp. 131-142, 2007.
[13]M. Choi, “Fusion of multispectral and panchromatic Satellite images using the curvelet transform,” IEEE Geoscience and Remote Sensing Letters, vol. 2, no. 2, pp. 136-140, 2005.
[14]S. Daneshvar and H. Ghassemian, “MRI and PET images fusion based on human retina model,” Journal of Zhejiang University SCIENCE A, vol. 8, no. 10, pp.1624-1623, 2007.
[15]Y. Chibani, “Redundant versus orthogonal wavelet decomposition for multisensor image fusion,” Pattern Recognition, vol. 36, no. 4, pp. 879-887, 2003.
[16]K. Amolins, Y. Zhang and P. Dare , “Wavelet based image fusion techniques — An introduction, review and comparison, ISPRS,” Journal of Photogrammetry and Remote Sensing, vol. 62, no. 4, pp. 249-263, 2007.
[17]S. Arivazhagan, L. Ganesan and S. Padam Priyal, “Texture classification using Gabor wavelets based rotation invariant features,” Pattern Recognition Letters, vol. 27, pp. 1976-1982, 2006.
[18]W. P. Choi, S. H. Tse, K. W. Wong and K. M. Lam, “Simplified Gabor wavelets for human face recognition,” Pattern Recognition, vol. 41, pp. 1186-1199, 2008.
[19]T. Tu, S.C. Su, H.C. Shyu and P. S. Huang, “A new look at IHS-like image fusion methods,” Information Fusion, vol. 2, no. 3, pp. 177-186, 2001.
[21]H. Chen, “Fusion Based on Principle Component Analysis,” Fourth International Conference on Image and Graphics, pp. 737-741, 2007.
[22]X. Li, X. Tian, Y. Sun and Z. Tang, Medical image fusion by multi-resolution analysis of wavelets transform, Wavelet Analysis and Applications, Springer, pp. 389–396, 2007.
[23]B. Yang, Sh. Li and F. Sun, “Image fusion using nonsubsampled contourlet transform,” Fourth International Conference on Image and Graphics pp. 719-724, 2007.
[24]Q. Guo and S. Liu , “Performance analysis of multi-spectral and panchromatic image fusion techniques based on two wavelet discrete approaches,” Optik, International Journal for Light and Electron Optics, vol. 122, no. 9, pp. 811-819, 2011.
[25]S. Li, B. Yang  and J. Hu , “Performance comparison of different multi-resolution transforms for image fusion,” Information Fusion, vol. 12, no. 2, pp. 74-84, 2011.
[26]T. Ranchin, B. Aiazzi,L. Alparone,S. Baronti andL. Wald, “Image fusion—the ARSIS concept and some successful implementation schemes,” ISPRS Journal of Photogrammetry and Remote Sensing, vol. 58, no.2, pp. 4-18, 2003.
[27]S. Yang, M. Wang and L. Jiao, “Fusion of multispectral and panchromatic images based on support value transform and adaptive principal component analysis,” Information Fusion, vol. 13, no. 3, pp. 177-184, 2012.
[28]L. Alparone, B. Aiazzi, S. Baronti, A. Garzelli, F. Nencini and M. Selva, “Multispectral and panchromatic data fusion assessment without reference,” Photogrammetric Engineering and Remote Sensing, vol. 74, no. 2, pp. 193-200, 2008.
[29]Z. Wang and A.C. Bovik, “A universal image quality index,” IEEE Signal Processing Letters, vol. 9, no. 3, pp. 81-84, 2002.