基于Gestalt视觉心理学和最小F-范数的图像显著区域检测和分割

根据Gestalt视觉心理学说,提出了一种新的图像显著区域检测方法。通过不同程度降低双对立颜色或亮度的特征图像对比度来抑制图像中次要特征对应的区域,增强主要特征对应的显著性区域;通过矩阵的最小F-范数确定符合Gestah视觉心理学的特征图像的合成方案,并利用Gestalt视觉心理学的核心理论来检验和自适应修改组合方案,得到最佳的显著图;利用Otsu法对显著图像进行二值化操作来完成图像的分割。实验结果表明,算法可以从复杂的自然彩色图像申较为完整地提取并分割显著目标,实验结果与MSRA数据库手工分割结果相一致,在满足实时性需求的基础上能比传统方法更加准确、完整地提取图像的显著性区域。...

Full description

Saved in:
Bibliographic Details
Published in计算机应用研究 Vol. 34; no. 11; pp. 3504 - 3509
Main Author 方志明 崔荣一 金璟璇
Format Journal Article
LanguageChinese
Published 延边大学工学院计算机科学与技术学科,吉林延吉133002 2017
延边大学智能信息处理研究室,吉林延吉133002
Subjects
Online AccessGet full text
ISSN1001-3695
DOI10.3969/j.issn.1001-3695.2017.11.068

Cover

More Information
Summary:根据Gestalt视觉心理学说,提出了一种新的图像显著区域检测方法。通过不同程度降低双对立颜色或亮度的特征图像对比度来抑制图像中次要特征对应的区域,增强主要特征对应的显著性区域;通过矩阵的最小F-范数确定符合Gestah视觉心理学的特征图像的合成方案,并利用Gestalt视觉心理学的核心理论来检验和自适应修改组合方案,得到最佳的显著图;利用Otsu法对显著图像进行二值化操作来完成图像的分割。实验结果表明,算法可以从复杂的自然彩色图像申较为完整地提取并分割显著目标,实验结果与MSRA数据库手工分割结果相一致,在满足实时性需求的基础上能比传统方法更加准确、完整地提取图像的显著性区域。
Bibliography:51-1196/TP
image salient region; Gestalt visual psychology; teature image; minimum F-norm
According to Gestalt visual psychology, this paper developed a new image saliency detection method. Firstly, by reducing the contrast of dual opponent colors feature image and luminance feature image, the method suppressed seeondal7 featroy of the image and heightened the salient region. Secondly, by minimum F-norm, it determined the combination scheme of feature image according with Gestalt visual psychology. Then, using core theories of Gestalt visual psychology, it examined and adaptively adjusted the combination scheme to get best saliency map. Finally, this method used Otsu method to binary the saliency image and completed salient region segmentation. Simulation experiments show that this method can completely extract salient object in real lime from complex natural-color image. Salient region segmentation results are in line with ground-trnth data of MSRA database. Compared to traditional methods, integrity and accur
ISSN:1001-3695
DOI:10.3969/j.issn.1001-3695.2017.11.068