基于贡献矩阵的微钙化点检测
2007-03-09
摘要:提出了基于贡献矩阵的特征提取方法。首先采用基于结构分析的统计方法构造贡献矩阵,利用贡献矩阵对图像预处理;通过二维主成分分析方法提取图像特征。将此算法用于微钙化点图像特征提取,利用支持向量机分类器件进行分类。实验结果表明,该算法加快了训练速度,同时有效地降低了微钙化点检测的假阳性。
关键词:支持向量机 贡献矩阵 二维主成分分析 特征提取 微钙化点检测
一般认为,特征越多,描述图像越充分,超能反映事物的内涵。然而,获取特征数据不仅需要大量的测量设备和时间,样本存储占用的空间和数据处理的计算量也急剧增长,而且,还有一些对分类来说是冗余和甚至不相关的特征会影响分类速度和分类器的泛化能力。在低维特征空间描述图像,是特征提取需要解决的问题。
主成分分析PCA(Principal Component Analysis)是一种常用的特征提取方法。它依据特征值的大小选择特征向量,消除了特征向量间的相关性,从一定意义上体现了特征向量中不同维对识别结果贡献大小的不同。但是至今还没有理论证明特征值大的特征向量对分类结果的贡献大,而且这仅仅是体现在特征向量的代数特征上,不能够充分利用特征向量的几何与结构分布的特点。为了更有效地选择特征,人们已经提出了多种改进方法。文献提出了一种基于粗糙集理论的主成分分析方法,文献提出了一种基于遗传算法的主成分分析方式,文献提出了通过反馈监督学习反复调整特征子空间的方法。为了改善分类效果,选择更有利于分类的特征,本文提出基于贡献矩阵的二维主成分分析方法。首先利用贡献矩阵对图像预处理,通过二维主成分分析方法提取图像特征,最后利用支持向量机分类器检测微钙化点。
1 基于贡献矩阵的微钙化点检测
1.1 贡献矩阵
通过对微钙化点检测问题的实验发现,不同的特征向量对检测结果的影响是不同的。为了更好地利用特征向量解决不同问题,本文引入了贡献矩阵。贡献矩阵和原始特征矩阵维数相同,且该矩阵的每一维数据反映了原始特征向量的该维分类结果的贡献大小,用该矩阵对原始特征向量进行预处理。
产生经验矩阵的方法有:(1)经验分析尖,取决于人的经验,无法通过计算机自动确定;(2)基于结构分析的统计方法,通过对大量图像的几何特征的分布进行分析,对乳腺X图像中的目标进行定位、边缘提取,通过统计确定出每一部分对分类贡献的大小,从而确定贡献矩阵;(3)反向优化算法,根据前两种方法确定一个初始的贡献矩阵,然后按照这个初始值对样本处理,求出分类结果,反过来根据分类结果修正贡献矩阵,最后得到一个优化的贡献矩阵使分类效果达到最好。
本文采用第二种方法构造贡献矩阵。由于微钙化点是一些相对周围区域灰度值较高的亮点,故在微钙化点检测问题的分类中起重要作用的是相对领域的亮点,对应贡献矩阵中较大的贡献系数,对于其他的像素,应赋予较小的贡献系数。
1.2 二维生成分分析
经典的主成分分析是基于一维向量,这里采用直接针对二维图像数据的二维主成分分析方法。
令X为n维单位列向量。A为m%26;#215;n的随机矩阵,通过线性变换
Y=AX (1)
得到图像A映射的特征向量。为了得到一个最优的映射向量,引入映射样本的总类分散度来度量映射向量X的判别力。用映射特征协方差矩阵的迹来描述总类分散度。采用准则
J(X)=tr(Sx) (2)
其中Sx为训练样本的映射特征向量的协方差矩阵,tr(Sx)表示Sx的迹。最大化上述准则的物理意义就是找到映射方向X,将所有样本映射该方向之后能够使映射样本的总类分散度量大。协方差矩阵Sx定义为:
Sx=E(Y-EY)(Y-EY)t (3)
=E[AX-E(AX)][AX-E(AX)]T
于是
tr(Sx)=X T[E(A-EA)T(A-EA)]X (4)
定义图像A的协方差矩阵Gt
Gt=E[(A-EA)t(A-EA)] (5)
从定义很容易证明Gt是非负的,而且可以直接从图像训练样本得到。假设共有M办公桌训练样本,第j个样本记作m%26;#215;n维矩阵Aj(j=1,2,…,M),所有样本的平均图像记作A’,这样
准则(2)改写为:
J(X)=XTGtX (7)
最优映射轴Xopt是最大化Jx的单位向量,就是Gt 对应最大特征值的向量。一般说,只有一个最优轴向是不够的,通常需需要要选择映射轴向的一个子集,即最大化Jx的一组正交向量X1,X2,…Xd
实际上,最优映射轴X1,X2,…,Xd就是Gt对应前d的最大特征值的特征向量。
1.3 特征提取
利用最优映射向量提取图像特征,对于一个给定的图像样本A,
Yk=Axk,k=1,2,…,d (9)
这样得到一组映射的特征向量Y1,Y2,…,Yd,称作图像样本的主成分。需要指出的是二维主成分分析的第一个主成分都是矢量,而一维主成分分析的是标量。B=[Y1,Y2,…,Yd]为图像的特征,用作后续分类器的输入。
1.4 支持向量机
支持向量机以结构风险最小化代替常用的经验风险最小化作为优化准则,可以在理论上取得更好的泛化性能。下面以两类模式的分类为说明其基本原理。
设样本集(xi,yi),i=1,2,…,n,yi∈{+1,-1},其中yi是模式xi的类别标号,通过满足Mercer条件的核函数K(u,v)将输入模式映射到一个更高维特征空间H中,在此高维空间求取一个线性分类面,使两类距离最大(称为最优线性分类面)。
这相当于求解约束条件下的二次化问题
其中C是对线性不可分样本的分类错误的惩罚因子,αi为每个结束条件对应的Lagrangian乘子。
求解上述二次优化问题,可以从训练样本中得到一系列对应αi≠0的向量,这些特片向量称为支持向理,分类面由这些向量决定。
其中SV为支持向量。
核函数的选择决定了高维特征空间H的结构,常用的函数有三种:
多项式核函数
K(x,xi)=[(x%26;#183;xi)+1] q (13)
RBF(Radial Basis Function)核
K(x,y)=tanh(v(x%26;#183;xi)+c) (15)
1.5 算法描述
本文采用分等级的微钙化点检测:预处理、感兴趣区域提取和钙化点检测。预处理包括图像增强和去噪。通过提取感兴趣区域,可以去除大量不含钙化点的区域,提高训练速度和分类精度。通过感兴趣区域中钙化点的检测,可以得到微钙化点。感兴趣区域的提取以及微钙化点的检测问题都是分类问题,即将包含钙化点的区域和不包含钙化点的区域或者钙化点与非钙化点区分开。本文使用支持向量机进行分类。下面详细介绍感兴趣区域的选取部分,分为两个阶段:训练阶段和测试阶段。
1.5.1 训练阶段
(1)对每一幅感兴直到区域(设为p%26;#215;q维)和非感兴趣区域(p%26;#215;q维)的图像样本,利用图像统计特征计算贡献矩阵D,且维数与图像相同。图像的统计特征本文采用统计平均值:
对图像中的每个像素,首先计算其2m+1邻域灰度均值,根据该像素的灰度值与该均值的差值大小给贡献矩阵对应的贡献系数赋值dij,且0
进入传感技术查看更多内容>>
下一篇:小型舞蹈机器人的驱动系统设计
热门新闻
相关电子头条文章