今天收拾资料,发现了以前刚接触粗糙集时写的一个综述,好久没写博客,发上来充数好了

一、粗糙集模型1

粗糙集是Pawlak于上世纪八十年代提出的一种不确定数学模型。该模型以有限集合上的等价关系为基础,定义了上下近似两个基本操作。该模型与它的其他一般化或变种形式有着较为广泛的应用。

1.1Pawlak粗糙集模型

Pawlak粗糙集模型是以一个有限集合与集合上的一个等价关系为基础的。所谓的二元等价关系是一种满足自反性,对称性和传递性的关系的二元关系。因为这些性质,一个二元等价关系将一个集合分割成一到多个互不相较子集,形成了集合的一个分割,记为U/R,其中的元素与他们的并被称为精确集。

在这一基础上,Pawlak提出了近似的概念,所谓近似,是通过一个已有集合U的一个分割中的集合的并集对一个U的任意子集X进行逼近,作为X的近似。包括上近似于下近似两种。如,设R是U上一个等价关系,则,X的上下近似分别为:

通过2中近似,我们可以把U分为三个部分,分别称为正域POS(X),边界域BND(X),和负域NEG(X),这三个域都是U/R上一些集合的并,也就是可以用R精确表示的精确集:分别表示一定属于X,可能属于X,和一定不属于X三种定义。

进一步的,对于任意两个等价关系R,D定义:

可以证明的是,在Pawlak粗糙集模型中

1.2变精度粗糙集模型(VPRT)2

在原有粗糙集模型的基础上,又可以引入变精度粗糙集的概念,变精度粗糙集通过引入一个精度参数,定义,重新定义正域为,边界域为,负域为

1.3概率粗糙集模型3

概率粗糙集模型是变精度粗糙集模型的进一步泛化,通过引入两个参数将正域、边界域和负域分别定义为

值得一提的是,这些参数并非一定要考实验者手动选择,有时可以作为数据集的一种性质而导出,比如当我们只有两个X和~X两种结论时,我们可以通过使用成本矩阵中提供的信息对参数进行求解。1

1.4其他粗糙集模型

除了上面提到的3种模型外,还有其他一些模型如模糊粗糙集模型、代数粗糙集模型(如粗糙群、粗糙环)4等,这些模型都是原有Pawlak粗糙集模型的泛化,可以根据不同的需要进行选择。

二、决策粗糙集

决策粗糙集是根据一张决策信息表定义的粗糙集模型,一张决策信息表是一个四元组{U,AT∪D,V,f},其中:

U={u1,u2,u3….} |U|=n<+∞

AT∪D表示属性的集合,分为信息属性AT和决策属性D两个互不相交的子集

通过属性的不同取值,我们可以对U进行分类,而根据AT和D两组属性,我们可以在U上定义两个等价关系,RATRD。通过根据这两组划分中的元素的相互关系,我们可以将他们间的元素联系起来,这样我们就得到了一系列的决策规则用于未知数据的预测。

2.1完备信息系统

完备信息系统是指信息系统中U中每个元素ui在AT∪D上的各个属性值确定已知,没有未知或丢失属性的情况发生,对于这种信息表,我们可以简单通过观察属性值是否相同来判断两个元素是否等价。

2.1.1不可分辨关系

当信息系统中的属性都是简单的定性分类数据时,我们就可以简单的在U上定义两个等价关系,分别为:

 

通过这两个等价关系,我们得到了U上的两个划分,将U/RAT 中的元素记为pi(i=1,2..|U/RAT|),U/RD中的元素记为qj(j=1,2..|U/RD|),如果有i、j满足集合pi属于集合qj说明当一个元素与等价集合pi中的元素在AT上属性值相等时,就一定有i在D上与qj的元素属性值相等,即可得出一条规则pi->qj。

根据这一思想,我们可以引出更为一般的决策规则。定义信息原子表达式表示满足信息属性ai等于v的所有元素集合。决策原子表达式表示满足决策属性di等于v的所有元素集合。

现在对信息表达式进行定义,如果是信息表达式则也都是信息表达式,同时所有信息原子表达式是信息表达式。

同理定义决策表达式,用表示。

表示规则中的所有元素属于。即如果元素满足表达式,则判断其满足表达式。这样我们就定义了最一般的规则表达式。

根据粗糙集的正域POS(X),边界域BND(X),和负域NEG(X),我们可以从决策信息表的两个划分中定义以下两种规则

1正规则:如果,则有:

2边界规则:如果,则有:

根据这两种规则,我们就得到了从该信息系统中能得出的有效规则,通过这些规则,我们就可以通过任一元素在AT上的值,去估计它在D上的结论值。

另外,有时我们的属性表中虽然有确定已知的属性值,但可能数据并非简单的定性分类数据,而是定量连续数据,对于这种属性,离散化处理使其变为定性分类数据是最为简单有效的方法。

2.1.2定量属性—相似关系的引入5

有时,我们并不能用简单的定性分类属性表示AT中的所有属性,因此,就引入了另外两种关系:相似关系与优势关系。

当AT中的属性为量化数据时,我们可以简单改变原来属性值完全相等才属于同一类别的定义,对每一个数值定义一个范围的领域,当另一元素y的该属性值属于元素x的该属性的邻域中时,我们就说y与x相似,这样我们就在U上重新定义的一个二元相似关系。

由于邻域可以任意的选择(一般要包括该值自己),所以这一新的二元关系并不一定是等价关系了,这个关系将可能不再满足传递性与对称性。我们用xRy表示x相似于y。根据R对任一个x,我们可以定义两个集合,分别表示相似于x的元素集和x相似于的元素集。

 

这样我们就得到了两个U上的覆盖(由于这个关系将可能不再满足传递性与对称性,U上所有相似类也就不再一定会构成一个U的划分,而是构成一个覆盖。于是我们有覆盖:

有了关系R以后,我们认为一个元素x绝对属于X当且仅当x相似于的元素都属于X,同时,所有相似于X中某一元素x的元素都有可能属于X,于是可以定义U的任意子集X在关系R下上下近似为:

有了这个两个近似后,我们就可以像之前一样计算POS(X),BND(X),NRG(X)并简单的定义信息系统上的两种规则了。

2.1.3优势关系与排序问题

但是当我们决策属不再是简单的分类关系而是一中偏序关系时,我们就不能再像以前一样进行规则的推导了,这是,就要通过引入优势关系下的近似来进行处理。

在优势关系中,在属性集AT上我们定义xDy表示x比y更好,一般来说xDy定义为:

![][31]

这样,我们就可以对每个x定义两个集合分别表示比x更优的元素和x比其更优的元素。

![][32]

而处理决策集时,我们不再简单对每一类决策类求近似,而是求他们并集的近似:

![][33]

有了这四种近似后,我们可以将(1)(2)分为一组,(3)(4)分为一组,分别按照原有方法导出两种规则求解一定属于![][34]的元素规则和可能属于![][35]的元素规则。

2.1.4成对比较表法PCT6

当我们拥有一张已经排序的信息表时,除了以上提到的方法以外,还有一种成对比较表法可以处理排序问题,导出规则对未知元素进行排序。

该方法的核心是将原来定义在U上的信息表扩展为一个UXU上的信息表。

新的信息表表示为{UXU,AT∪D,V,f}}

UXU: |UXU|=n*n

AT∪D中的属性与原有信息表中的属性一一对应,但是不再表示具体的属性值,对于AT中的属性a和元素(x,y),新的信息表中a的值表示在原信息表中元素x比y在属性a上的优异程度。而对于D中的属性值,新的信息表中的属性d仅表示x优于y或y优于x。

![][36]

 

[clip_image116][37]

![][38]

通过对新的信息表,就可以导出一系列的规则,这些规则可以用来比较任意两个元素在d上的优劣,我们可以通过这种思想对未知元素进行排序。

在文献13中,作者引入了一种得分参数,通过将元素两两对比并根据比较结果对每一元素求出一个得分,根据该得分对元素进行排序。

2.2不完备信息系统

在不完备信息系统中,由于未知或丢失属性的情况发生,我们无法通过简单观察属性值是否相同来判断两个元素是否等价,这时等价关系的定义就需要重新进行考虑。关于不完备信息系统的研究有多种处理方式,关键在于对丢失属性值的处理(完全忽视,部分忽视等),这里仅提出一些常用方案。下文中我们将用*代表未知丢失属性。

2.2.1不可分辨关系与相似关系属性的不完备7

类似于之前的相似关系,如果对x的所有已知确定属性y的该属性也确定已知且与x的属性值相等或相似,则x相似于y。

![][39]

有了这样一个相似关系,我们对每一个元素x定义两个集合分别表示相似于x的元素和x相似于的元素,记为:

[clip_image114[1]][40]![][41]

这样就可以定义任意集合X的上下近似

![][42]

有了这种定义后,就可以像之前一样导出所需规则。

2.2.2优势关系属性的不完备7

类似的,如果对于两个元素x,y有x在x的确定的属性上全部优于y,则x相似于y且x优于y。如果x在x的确定的属性上全部次于y,则x相似于y且x次于y。这样我们就定义了U上的两个关系如下:

![][43]

通过这两个定义,对每一个属性x,我们就可以定义四种邻域,分别表示相似于x并优于x,被x相似于并优于x,相似于x并次于x,被x相似于并次于x。

![][44]

根据这四种邻域我们将可以定义四种近似为:

![][45]

 

根据四种近似,我们就可以像之前一样将(1)(2)分为一组,(3)(4)分为一组,分别按照原有方法导出两种规则求解一定属于[clip_image108[2]][46]的元素规则和可能属于[clip_image108[3]][47]的元素规则。

2.3粗糙集的规约

由于在现实数据中,决策信息表中往往有很多的属性,而这些属性有些相互决定,有些队决策属性没有任何影响,故而原始属性中具有很大的冗余性。由于这些原因,出于简化的目的,引入了粗糙集的规约用于消减属性。

2.3.1 Pawlak粗糙集模型的属性规约[

归约即是在保持一定性质的情况下减少属性,一个最简规约即使满足该性质不变并不能继续减少属性同时仍然能满足该性质不变的属性集合。所有规约的交记为Core(AT).

对于Pawlak粗糙集,如果一个信息属性集C满足以下属性,我们称它为一个归约:

![][48]

其中用于替代第一个条件的另一个常见等价定量定义是保持参数![][49]的不变性。

![][50]

可以证明,在Pawlak粗糙集模型下,这一参数还与许多其他参数等价。如:coveragee(PRS)和generalitye(PRS)8

2.3.2概率粗糙集模型的属性规约

在概率粗糙集模型中,虽然![][51]的等价已经不能再保证条件(1)的等价以及其他一些参数,但是![][52]仍然常被用于代替条件(1)成为归约的两个条件之一。

另一方面由于条件2也需要进行修正,概率粗糙集模型中归约的要求变更为:

![][53]

其中e是一个满足一定条件8的测量参数,如![][52]。另外,12中对变精度粗糙集中精度参数对归约的影响作了非常细致的讨论。

2.3.3分辨矩阵归约法[7][9]

一般来说,由于属性种类较多,规约算法很难找到最优规约,采用的都是启发式算法不断选择可能最好的属性加入已有属性集以求得规约,除此之外,还有一种基于差别矩阵和布尔运算的规约方法。

这种方法是通过一个nxn的矩阵,列出每两个元素之间的差别属性,根据这些差别属性和布尔推理的方法寻找规约

差别属性定义为所有导致两个元素决策属性不一致的信息属性集,元素x与元素y的差别属性为:![][54]

于是定义差别矩阵为:![][55]

于是可以用![][56]表示元素x的分辨函数,并用函数![][57]表示整个信息系统的分辨函数,写出函数的主析取范式,则该范式中每一个极小合取项都是一个极小的保持区分能力的属性子集即属性归约。

这种方法同样可以处理优势关系,[7][9]详细论述了这种方法在不完备优势关系下的应用,并考虑了面对不一致信息表时通过使用差别矩阵计算近似分布归约的方法。

2.4度量方法

为了测量我们得出的规则的准确性等一系列属性,很多统计量被提出用于量化规则或决策表的精确程度与预测能力。在度量中,很多时候可以将数据中的概率分布近似类比于实际概率分布(如先验分布,条件分布等),参照一些以有的不确定性度量工具(如贝叶斯和信息熵理论)找出有效的度量方法。

2.4.1度量参数

对于规则clip_image069[1],定义以下三测量分别表示规则的强度,确定度和覆盖度:

![][58]

有可定义![][59]表示表达式[clip_image071[2]][60]的对 U的覆盖强度,![][61]表示规则![][62]对U的覆盖强度。

可以看出![][63]可以很好的类比于一些先验和后验概率分布,并与这些先验/后验概率分布函数有着类似的属性。基于这种思想,文章23中提出了很多其他的测量函数。

2.4.2贝叶斯方法与不确定度量

基于贝叶斯思想,我们可以得出![][64]等多种公式,这些公式和度量函数可以很好的描述信息表即导出规则的各种属性。5

另一种不确定测量方式是以信息熵理论为基础的,通过将这些参数类比于信息熵理论中的概率分布,引入了类似于信息熵,互信息熵计算的各种公式,用以完成对规则和整个信息系统的的度量。10

2.4.3度量的改进

为了测量整个信息系统的有效性,还有一些由规则度量参数组合出的整表度量参数,但是这些参数往往有着一定的局限性,在一定的条件下会退化为常数0,故而不能很好的地起到测量的作用。

针对这一问题11中提出了三种新的整表测量函数:certainty, consistency and support分别测量决策信息表的确定性,一致性和支撑度。按照文中的理论,这些参数同以前的参数一样很好的起到了测量的作用并避免了函数退化的后果。

三、结论

粗糙集作为一种模型有着非常广泛的用途,本文以决策粗糙集为入手点,详细讨论了粗糙集在的一些模型,算法,规则度量等问题,这些问题在现实中都有较多的使用,因而也有较高的实际意义。另一方面,粗糙集模型本身还有很多具有理论意义的属性如粗糙函数,粗糙拓扑等等。通过这些理论研究,可以帮助我们更好的理解粗糙集模型,进而更好地找到粗糙集的实际意义。决策粗糙集的核心在于目标决策类的确定、子集上下近似的求解以及属性的规约,前两者决定了规则的实用意义与价值,后者的简化能力则是使其成为一种具有实际应用价值的模型的关键所在,最后还有一些测量方法可以帮助我们更好的构建这三者,以达到更好的辅助我们进行决策。

参考文献:

[1]Yao, Y. (1997). “A review of rough set models.”

[2]Beynon, M. J. and M. J. Peel (2001). “Variable precision rough set theory and data discretisation: an application to corporate failure prediction.” Omega-International Journal of Management Science 29(6): 561-576.

[3]Yao, Y. (2003). “Probabilistic approaches to rough sets.” Expert Systems 20(5): 287-297.

[4]苗夺谦,李道国(2008) 《粗糙集理论、算法与应用》

[5]Slowinski, R. and D. Vanderpooten (2000). “A generalized definition of rough approximations based on similarity.” Ieee Transactions on Knowledge and Data Engineering 12(2): 331-336.

[6]Greco, S., B. Matarazzo, et al. (2002). “Rough sets methodology for sorting problems in presence of multiple attributes and criteria.” European Journal of Operational Research 138(2): 247-259.

[7]Yang, X. B., J. Y. Yang, et al. (2008). “Dominance-based rough set approach and knowledge reductions in incomplete ordered information system.” Information Sciences 178(4): 1219-1234.

[8]Yao, Y. Y. and Y. Zhao (2008). “Attribute reduction in decision-theoretic rough set models.” Information Sciences 178(17): 3356-3373.

[9]Shao, M. W. and W. X. Zhang (2005). “Dominance relation and rules in an incomplete ordered information system.” International Journal of Intelligent Systems 20(1): 13-27.

[10]Duntsch, I. and G. Gediga (1998). “Uncertainty measures of rough set prediction.” Artificial Intelligence 106(1): 109-137.

[11]Qian, Y. H., J. Y. Liang, et al. (2008). “Measures for evaluating the decision performance of a decision table in rough set theory.” Information Sciences 178(1): 181-202.

[12]Beynon, M. (2001). “Reducts within the variable precision rough sets model: A further investigation.” European Journal of Operational Research 134(3): 592-605.

[13]]Greco, S., B. Matarazzo, et al. (1999). “Rough approximation of a preference relation by dominance relations.” European Journal of Operational Research 117(1): 63-83.

[14]Pawlak, Z. (1997). “Rough set approach to knowledge-based decision support.” European Journal of Operational Research 99(1): 48-57.

[15]Swiniarski, R. W. and A. Skowron (2003). “Rough set methods in feature selection and recognition.” Pattern Recognition Letters 24(6): 833-849.

[16]Pawlak, Z. (2002). “Rough sets and intelligent data analysis.” Information Sciences 147(1-4): 1-12.

[17]Pawlak, Z. (2002). “Rough sets, decision algorithms and Bayes’ theorem.” European Journal of Operational Research 136(1): 181-189.

[18]Kryszkiewicz, M. (1999). “Rules in incomplete information systems.” Information Sciences 113(3-4): 271-292.

[19]Greco, S., B. Matarazzo, et al. (2001). “Rough sets theory for multicriteria decision analysis.” European Journal of Operational Research 129(1): 1-47.

[20]Pawlak, Z. and A. Skowron (2007). “Rudiments of rough sets.” Information Sciences 177(1): 3-27.

[21]Pawlak, Z. and A. Skowron (2007). “Rough sets: Some extensions.” Information Sciences 177(1): 28-40.

[22]Greco, S., B. Matarazzo, et al. (1999). Handling missing values in rough set analysis of multi-attribute and multi-criteria decision problems. New Directions in Rough Sets, Data ining, and Granular-Soft Computing. N. S. A. O. S. Zhong. Berlin, Springer-Verlag Berlin. 1711: 146-157.

[23]Greco, S., Z. Pawlak, et al. (2004). “Can Bayesian confirmation measures be useful for rough set decision rules?” Engineering Applications of Artificial Intelligence 17(4): 345-361.

无觅相关文章插件,快速提升流量