其基本的想法来自于简单的一元线性模型 $w = f(v) = v + b$。已知一组训练点 ${(v_i, w_i)}_{i=1}^n$,利用此线性模型最小化预测误差的平方和,我们可以获得
利用上式获得了$b$的取值后,对于新的数据点$v_{new}$,我们可以利用 $w_{new} = b + v_{new}$ 获得它的预测值。
直观上我们可以把上面求偏移 $b$ 的公式理解为 $w_i$ 和 $v_i$ 差值的平均值。
利用上面的直观,我们定义item $i$ 相对于 item $j$ 的平均偏差:
其中 $S_{j,i}()$ 表示同时对item $i$ 和 $j$ 给予了评分的用户集合,而 $card()$ 表示集合包含的元素数量。
有了上面的定义后,我们可以使用 获得用户 $u$ 对 item $j$ 的预测值。当把所有这种可能的预测平均起来,可以得到:
其中 $R_j$ 表示所有用户 $u$ 已经给予评分且满足条件 ($i \neq j$ 且 $S_{j,i}$非空) 的item集合。
对于足够稠密的数据集,我们可以使用近似
把上面的预测公式简化为
Weighted Slope One
Slope One中在计算 item $i$ 相对于 item $j$ 的平均偏差 $dev_{j,i}$ 时没有考虑到使用不同的用户数量平均得到的 $dev_{j,i}$,其可信度不同。假设有 $2000$ 个用户同时评分了 item $j$ 和 $k$,而只有$20$ 个用户同时评分了 item $j$ 和 $l$,那么显然获得的 $dev_{j, k}$ 比 $dev_{j, l}$ 更具有说服力(类似于kNN中压缩相似度的思想)。所以一个修正是对最终的平均使用加权:
其中
(根据在Netflix上的经验,可能把 $c_{j,i}$ 再开方更合适)
Bi-Polar Slope One
Bi-Polar Slope One 进一步把用户已经给予评分的item划分为两类——like和dislike,而其划分的方法是判断对应的评分是否大于此用户的平均评分:
类似地,可以定义对item $i$ 和 $j$ 具有相同喜好的用户集合:
利用上面的定义,我们可以使用下面的公式为(like或dislike的item)获得新的偏差值:
这样可以计算从item $i$ 计算得到的预测值:
最终 Bi-Polar Slope One 的预测公式为
最后的实验比较使用的度量为 MAE,其结果如下: