加入收藏 | 设为首页 | 会员中心 | 我要投稿 湖南网 (https://www.hunanwang.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 大数据 > 正文

呆板进修中的相似性怀抱:间隔,原本尚有这么多类

发布时间:2021-03-06 15:42:30 所属栏目:大数据 来源:网络整理
导读:来自:苍梧 - 博客园 链接:http://www.cnblogs.com/heaad/archive/2011/03/08/1977733.html 在做分类时经常必要估算差异样本之间的相似性怀抱(SimilarityMeasurement),这时凡是回收的要领就是计较样本间的“间隔”(Distance)。回收什么样的要领计较间隔是

?


(3)Matlab计较(1,2,3,4 )与( 3,8,7,6 )之间的相相关数与相干间隔


X = [1 2 3 4 ; 3 8 7 6]

C = corrcoef( X' ) ??%将返回相相关数矩阵

D = pdist( X,'correlation')

功效:

C=

??? 1.0000???0.4781

??? 0.4781???1.0000

D=

0.5219


个中0.4781就是相相关数,0.5219是相干间隔。


11、信息熵(Information Entropy)


信息熵是权衡漫衍的紊乱水平或分手水平的一种怀抱。漫衍越分手(可能说漫衍越均匀),信息熵就越大。漫衍越有序(可能说漫衍越齐集),信息熵就越小。


计较给定的样本集X的信息熵的公式:


参数的寄义:


n:样本集X的分类数

pi:X中第i类元素呈现的概率


信息熵越大表白样本集S分类越分手,信息熵越小则表白样本集X分类越齐集。。当S中n个分类呈现的概率一样大时(都是1/n),信息熵取最大值log2(n)。当X只有一个分类时,信息熵取最小值0。

(编辑:湖南网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读