1. PageRank算法每个顶点收敛的值与每个点的初值是没有关系的,每个点随便赋初值。
2.像q=0.8这样的阻尼系数已经解决了PageRank中处在的孤立点问题、黑洞效应问题。
3.当有那个点进行PageRank计算时,我自己理解为一个n维方程,每个点的解对应x1,x2,...,这些解的和会收敛于一个值,d1表示上一次pr值的总和,d2表示新的一次pr值得总和:
对于每一个点:
for{
d2的子集=d1的子集*0.8+0.2;
d2的子集=d1的子集*0.8+0.2;
....
}
经过多次迭代,d1会无限趋近于d2;
则总的pr值收敛于d2=d2*0.8+0.2*n的解,也即顶点的个数。
但是所有点的pr值的总和收敛于一个固定值,并不代表每个顶点的pr值收敛于一个相同的值,就像:
固定值=x1+x2+x3+x4+....
x1,x2,x3,x4不一定是相同的值,但一定收敛与一个固定的pr值,并代表其重要性。
原文:http://www.cnblogs.com/lijinji/p/6286259.html