[英]Joint entropy in python
我有两个数组:
import numpy as np
a = np.array(['1','2','3'])
b = np.array(['3','4','1','5'])
我想计算联合熵。 我找到了一些材料来制作它:
import numpy as np
def entropy(*X):
return = np.sum(-p * np.log2(p) if p > 0 else 0
for p in (np.mean(reduce(np.logical_and, (predictions == c for predictions, c in zip(X, classes))))
for classes in itertools.product(*[set(x) for x in X])))
使用len(a) = len(b)
似乎工作正常,但如果len(a) != len(b)
则以错误结束
UPD:数组a
和b
是从示例主输入创建的:
b:3 p1:1 p2:6 p5:7
b:4 p1:2 p7:2
b:1 p3:4 p5:8
b:5 p1:3 p4:4
其中数组a
是从 p1 值创建的。 所以不是每条线都包含每个pK
但每条线都有b
属性。 我需要为每个pK
计算互信息I(b,pK)
。
假设你在谈论联合香农熵,公式很简单:
问题在于,当我查看您到目前为止所做的工作时,您缺少P(x,y)
,即两个变量一起出现的联合概率。 看起来a,b
分别是事件 a 和 b 的个体概率。
您发布的代码有其他问题(在评论中提到):
a=["1","2"]
是不一样的a=[1,2]
一个是字符串,另一个是数字。P(x,y)
。这是一个想法:
import numpy as np
from scipy import stats
a = np.array(['1','2','3','0'])
b = np.array(['3','4','1','5'])
aa = [int(x) for x in a]
bb = [int(x) for x in b]
je = stats.entropy(aa,bb)
print("joint entropy : ",je)
输出:0.9083449242695364
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.