利用逆倾向分数 (IPS) 降低选择偏差

Posted on Wed, Aug 3, 2022 📖Note Recommendation

Recommendations as Treatments: Debiasing Learning and Evaluation

1 引言

推荐系统中几乎所有数据都受选择偏差 (selection bias) 的限制。以想要优化的效果为条件进行观测会导致数据出现非随机缺失 Missing Not At Random (MNAR)。以因果推断的视角来看,在推荐系统中向一个用户推荐一个物品就是一次介入 (intervention)

本文主要贡献:

  1. 使用因果推断等问题中常用的倾向加权 (propensity-weighting) 技术来估计推荐系统质量。特别是得到了许多性能指标(如 MSE, MAE, DCG)的无偏估计。
  2. 使用这些估计量提出了一个在选择偏差下学习推荐系统的经验风险最小化 Empirical Risk Minimization (ERM) 框架,并推导了泛化误差上界 (generalization error bound)。
  3. 使用 ERM 框架得到了一个可以解释选择偏差的矩阵分解 (matrix factorization) 方法。
  4. 探讨了在观测背景 observational settings(选择偏差是由于用户的自己选择)下估计倾向的方法,描述了框架对于错误指定的倾向的鲁棒性。

2 相关工作

过去处理推荐数据 MNAR 的方法是基于缺失值模型和评分模型的联合似然 (joint likelihood) 进行缺失值填充。

3 推荐的无偏性能估计

例子:

用户 u{1,,U}u\in\{1,\dots,U\},电影 i{1,,I}i\in\{1,\dots,I\}

图 1 中真实评分矩阵 YU×IY\in\Re^{U\times I}

二元矩阵 O{0,1}U×IO\in\{0,1\}^{U\times I} 表示用户提供了哪部电影的评分,[Ou,i=1][观测到  Yu,i].[O_{u,i}=1]\Leftrightarrow [\small观测到\normalsize\;Y_{u,i}].

例子中喜欢电影和给电影评分强相关,矩阵 PP 描述边缘概率 Pu,i=P(Ou,i=1)P_{u,i}=P(O_{u,i}=1),每个评分以该概率显现出来。

考虑如下两个任务:

3.1 任务 1:估计评分预测的准确度

该任务评价一个预测的评分矩阵 Y^\hat{Y} 能够多好地反映真实评分 YY。标准评价指标比如平均绝对值误差 Mean Absolute Error (MAE) 和均方误差 Mean Squared Error (MSE) 可以写成这样的形式:

R(Y^)=1UIu=1Ui=1Iδu,i(Y,Y^)(1)R(\hat{Y})=\frac{1}{U\cdot I}\sum_{u=1}^{U}\sum_{i=1}^{I}\delta_{u,i}(Y,\hat{Y}) \tag{1}

其中 δu,i(Y,Y^)\delta_{u,i}(Y,\hat{Y}) 适当地选择。

MAE:δu,i(Y,Y^)=Yu,iY^u,i,MSE:δu,i(Y,Y^)=(Yu,iY^u,i)2,Accuracy:δu,i(Y,Y^)=1{Yu,i=Y^u,i}.\begin{aligned} \text{MAE:}\quad \delta_{u,i}(Y,\hat{Y})&=|Y_{u,i}-\hat{Y}_{u,i}|,\\ \text{MSE:}\quad \delta_{u,i}(Y,\hat{Y})&=(Y_{u,i}-\hat{Y}_{u,i})^2,\\ \text{Accuracy:}\quad \delta_{u,i}(Y,\hat{Y})&=\mathbf{1}\{Y_{u,i}=\hat{Y}_{u,i}\}. \end{aligned}

传统方法:由于 YY 仅部分可知,只在观测到的项上取平均来估计 R(Y^)R(\hat{Y})

R^naive(Y^)=1{(u,i):Ou,i=1}(u,i):Ou,i=1δu,i(Y,Y^).(5)\hat{R}_{naive}(\hat{Y})=\frac{1}{|\{(u,i):O_{u,i}=1\}|}\sum_{(u,i):O_{u,i}=1}\delta_{u,i}(Y,\hat{Y}).\tag{5}

该估计量称为朴素估计量。以图 1 中 Y^1\hat{Y}_1Y^2\hat{Y}_2 为例,R^naive(Y^)\hat{R}_{naive}(\hat{Y}) 会认为 Y^2\hat{Y}_2Y^1\hat{Y}_1 有更好的 MAE。该错误就是由于选择偏差,由于 1 星的评分在观测到的数据中没有被充分表示,δu,i(Y,Y^)\delta_{u,i}(Y,\hat{Y})Yu,iY_{u,i} 是相关的。R^naive(Y^)\hat{R}_{naive}(\hat{Y}) 不是真实性能 R(Y^)R(\hat{Y}) 的无偏估计:

EO[R^naive(Y^)]R(Y^).\mathbb{E}_O[\hat{R}_{naive}(\hat{Y})]\ne R(\hat{Y}).

3.2 任务 2:估计推荐质量

Y^\hat{Y} 重新定义为类似于 OO 的二元矩阵来编码推荐,[Y^u,i=1][i  被推荐给  u][\hat{Y}_{u,i}=1]\Leftrightarrow [i\;\small被推荐给\normalsize\;u],限制每个用户 kk 个推荐。图 1 中的 Y^3\hat{Y}_3 为例子。一种合理的度量推荐质量的方法是用户从推荐的电影中获得的累积增益 Cumulative Gain (CG),这里在例子中定义为被推荐的电影的平均评分。CG 可以写成公式 (1) 的形式:

CG:δu,i(Y,Y^)=(I/k)Y^u,iYu,i.\text{CG:}\quad \delta_{u,i}(Y,\hat{Y})=(I/k)\hat{Y}_{u,i}\cdot Y_{u,i}.

但除非用户看过了 Y^\hat{Y} 中的所有电影,否则是无法通过公式 (1) 直接计算出 CG 的。

反事实问题 (counterfactual question):只有 Ou,i=1O_{u,i}=1 即用户 uu 提供了电影 ii 的评分才观测到 Yu,iY_{u,i}。那么如果用户不去看 OO 中显示的电影,而是去看我们的推荐 Y^\hat{Y},(用 CG 来表示)用户会感觉怎么样呢?

对于推荐的顺序和上面描述的基于集合的推荐类似,如折扣累积增益 Discounted Cumulative Gain (DCG), DCG@k, 前 k 准确度 Precision at k (PREC@k) 等指标也适用于这个背景。对于这些,将每行中 Y^\hat{Y} 的值定义为预测的排序,那么

DCG:δu,i(Y,Y^)=(I/log(rank(Y^u,i)))Yu,i,PREC@k:δu,i(Y,Y^)=(I/k)Yu,i1{rank(Y^u,ik)}.\begin{aligned} \text{DCG:}\quad \delta_{u,i}(Y,\hat{Y})&=(I/\log(\text{rank}(\hat{Y}_{u,i})))Y_{u,i},\\ \text{PREC@k:}\quad \delta_{u,i}(Y,\hat{Y})&=(I/k)Y_{u,i}\cdot\mathbf{1}\{\text{rank}(\hat{Y}_{u,i}\le k)\}. \end{aligned}

一种方法是再次使用公式 (5) 的朴素估计量,但它是 R(Y^)R(\hat{Y}) 的有偏估计。

3.3 倾向分数的性能估计量

生成 OO 中观测模式的过程在因果推断中称为分配机制 (Assignment Mechanism),在缺失值分析中称为缺失值机制 (Missing Data Mechanism)。区分出下面两种背景:

假设分配机制是基于概率的,即观测到一项 Yu,iY_{u,i} 的边缘概率 Pu,i=P(Ou,i=1)P_{u,i}=P(O_{u,i}=1) 对于所有用户/物品对都是非零的。把 Pu,iP_{u,i} 称作观测到 Yu,iY_{u,i}倾向 (propensity)。实验背景中已知所有倾向的矩阵 PP,因为我们实现了分配机制。观测背景中需要从观测到的矩阵 OO 中估计 PP。首先关注实验背景

IPS 估计量 逆倾向分数 Inverse-Propensity-Scoring (IPS) 估计量定义为:

R^IPS(Y^P)=1UI(u,i):Ou,i=1δu,i(Y,Y^)Pu,i.(10)\hat{R}_{IPS}(\hat{Y}|P)=\frac{1}{U\cdot I}\sum_{(u,i):O_{u,i}=1}\frac{\delta_{u,i}(Y,\hat{Y})}{P_{u,i}}.\tag{10}

IPS 估计量对于任意基于概率的分配机制都是无偏的,无偏性不受 OO 内的依赖关系影响:

EO[R^IPS(Y^P)]=1UIuiEOu,i[δu,i(Y,Y^)Pu,iOu,i]=1UIuiδu,i(Y,Y^)=R(Y^).\begin{aligned} \mathbb{E}_O\Big[\hat{R}_{IPS}(\hat{Y}|P)\Big]&=\frac{1}{U\cdot I}\sum_u\sum_i\mathbb{E}_{O_{u,i}}\Bigg[\frac{\delta_{u,i}(Y,\hat{Y})}{P_{u,i}}O_{u,i}\Bigg]\\ &=\frac{1}{U\cdot I}\sum_u\sum_i\delta_{u,i}(Y,\hat{Y})=R(\hat{Y}). \end{aligned}

为研究 IPS 估计量的变化性 (variability),假设在给定 PP 的条件下观测是相互独立的,对应于一个多元伯努利模型,每个 Ou,iO_{u,i} 都有概率 Pu,iP_{u,i}。下面的命题提供了一些关于当倾向变得更“不均匀”时 IPS 估计量的准确性如何变化的直觉知识。

命题 3.1(IPS 估计量的尾界)令 PP 为观测到每项的独立伯努利概率。对于给定的 Y^\hat{Y}YY,IPS 估计量 R^IPS(Y^P)\hat{R}_{IPS}(\hat{Y}|P)1η1-\eta 的概率不会偏离真实的 R(Y^)R(\hat{Y}) 超过:

R^IPS(Y^P)R(Y^)1UIlog2η2u,iρu,i2,\Big|\hat{R}_{IPS}(\hat{Y}|P)-R(\hat{Y})\Big|\le\frac{1}{U\cdot I}\sqrt{\frac{\log \frac{2}{\eta}}{2}\sum_{u,i}\rho_{u,i}^2},

其中当 Pu,i<1P_{u,i}<1ρu,i=δu,i(Y,Y^)Pu,i\rho_{u,i}=\frac{\delta_{u,i}(Y,\hat{Y})}{P_{u,i}},否则 ρu,i=0\rho_{u,i}=0

证明 霍夫丁不等式 (Hoeffding’s inequality) 说明对于相互独立的有界的随机变量 Z1,,ZnZ_1,\dots,Z_n,以概率 1 取值分别在大小为 ρ1,,ρn\rho_1,\dots,\rho_n 的区间,对于任意 ϵ>0\epsilon >0

P(kZkE[kZk]ϵ)2exp(2ϵ2kρk2).P\bigg(\bigg|\sum_kZ_k-E\bigg[\sum_kZ_k\bigg]\bigg|\ge\epsilon\bigg)\le2\exp\Big(\frac{-2\epsilon^2}{\sum_k\rho_k^2}\Big).

定义

Zk={1UIδu,i(Y,Y^)Pu,i,w/ prob. Pu,i,0,w/ prob. 1Pu,i.Z_k=\begin{cases} \frac{1}{U\cdot I}\cdot\frac{\delta_{u,i}(Y,\hat{Y})}{P_{u,i}},&\quad \text{w/ prob.}\ P_{u,i},\\ 0,&\quad\text{w/ prob.}\ 1-P_{u,i}. \end{cases}

kZk=(u,i)1UIδu,i(Y,Y^)Pu,iOu,i=1UI(u,i):Ou,i=1δu,i(Y,Y^)Pu,i=R^IPS(Y^P).\begin{aligned} \sum_kZ_k&=\sum_{(u,i)}\frac{1}{U\cdot I}\cdot\frac{\delta_{u,i}(Y,\hat{Y})}{P_{u,i}}\cdot O_{u,i}\\ &=\frac{1}{U\cdot I}\sum_{(u,i):O_{u,i}=1}\frac{\delta_{u,i}(Y,\hat{Y})}{P_{u,i}}\\ &=\hat{R}_{IPS}(\hat{Y}|P). \end{aligned}

E[kZk]=E[R^IPS(Y^P)]=R(Y^).E\bigg[\sum_kZ_k\bigg]=E\Big[\hat{R}_{IPS}(\hat{Y}|P)\Big]=R(\hat{Y}).

ρk={1UIδu,i(Y,Y^)Pu,i,if Pu,i<1,0,otherwise.\rho_k=\begin{cases} \frac{1}{U\cdot I}\cdot\frac{\delta_{u,i}(Y,\hat{Y})}{P_{u,i}},&\text{if}\ P_{u,i}<1,\\ 0,&\text{otherwise}. \end{cases}

那么令

ρu,i={δu,i(Y,Y^)Pu,i,if Pu,i<1,0,otherwise.\rho_{u,i}=\begin{cases} \frac{\delta_{u,i}(Y,\hat{Y})}{P_{u,i}},&\text{if}\ P_{u,i}<1,\\ 0,&\text{otherwise}. \end{cases}

则有 ρk=ρu,iUI\rho_k=\frac{\rho_{u,i}}{U\cdot I},带入霍夫丁不等式,得

P(R^IPS(Y^P)R(Y^)ϵ)2exp(2ϵ2U2I2u,iρu,i2).P\Big(\Big|\hat{R}_{IPS}(\hat{Y}|P)-R(\hat{Y})\Big|\ge\epsilon\Big)\le2\exp\Big(\frac{-2\epsilon^2U^2\cdot I^2}{\sum_{u,i}\rho_{u,i}^2}\Big).

解出 ϵ\epsilon 即证。

考虑均匀的倾向 Pu,i=pP_{u,i}=p,这意味着期望意义下有 n=pUIn=pUIYY 中的元素显示出来。这样,这个界就是 O(1/(pUI))O(1/(p\sqrt{UI}))。如果 Pu,iP_{u,i} 是非均匀的,即便期望的显示的元素数量 Pu,i\sum P_{u,i}nn,这个界也会大得多。这里是用了很大的变化性 (variability) 来保证无偏性。

SNIPS 估计量 一种降低变化性的方法是利用控制变量 (control variants)。在 IPS 估计量上应用,有 Eo[(u,i):Ou,i=11Pu,i]=UI\mathbb{E}_o\Big[\sum_{(u,i):O_{u,i}=1}\frac{1}{P_{u,i}}\Big]=U\cdot I。可以得到自归一化逆倾向分数 Self-Normalized Inverse Propensity Scoring (SNIPS) 估计量:

R^SNIPS(Y^P)=(u,i):Ou,i=1δu,i(Y,Y^)Pu,i(u,i):Ou,i=11Pu,i.\hat{R}_{SNIPS}(\hat{Y}|P)=\frac{\sum_{(u,i):O_{u,i}=1}\frac{\delta_{u,i}(Y,\hat{Y})}{P_{u,i}}}{\sum_{(u,i):O_{u,i}=1}\frac{1}{P_{u,i}}}.

SNIPS 估计量通常会有比 IPS 估计量更低的方差,但偏差也更小。

3.4 估计量的实验示例

使用了半人造的 ML100K 数据集(见 6.2 节),其中 YY 完全已知,因而可以使用公式 (1) 计算真实性能。选择观测到评分 Yu,iY_{u,i} 的概率 Pu,iP_{u,i} 来模仿原始的 ML100K 数据集中观测的边缘评分分布,平均 5% 的 YY 矩阵被显示出来了。

表 1 是下面五种预测矩阵 Y^i\hat{Y}_i 使用 MAE 估计评分预测的准确度和使用 DCG@50 估计推荐质量的结果。

DCG@50 使用的排名是对于每个用户用物品相应的 Y^i\hat{Y}_i 排序得到的。

结论:对于 MAE 和 DCG,IPS 和 SNIPS 的偏差都很小,朴素估计量严重有偏,估计的 MAE 把预测矩阵 Y^i\hat{Y}_i 得到的排序甚至是错的(它认为 REC_ONES 的性能比 REC_FOURS 更好)。IPS 和 SNIPS 的标准差远小于朴素估计量的偏差。此外,对于 MAE,SNIPS 能够降低 IPS 的标准差,但对于 DCG 不能。

4 倾向分数的推荐学习

使用前面的无偏估计量在经验风险最小化 Empirical Risk Minimization (ERM) 框架下学习,证明泛化误差上界 (generalization error bound),并得到一个用于评分预测的矩阵分解 (matrix factorization) 方法。

4.1 使用倾向的推荐 ERM

通过体现出公式 (1) 对应于数据生成过程 P(OP)P(O|P) 上的期望损失(即风险),调整 ERM 适应于当前背景。给定一个来自于 P(OP)P(O|P) 的样本,可以把公式 (10) 的 IPS 估计量视为对任意 Y^\hat{Y} 估计 R(Y^)R(\hat{Y}) 的经验风险 (Empirical Risk) R^(Y^)\hat{R}(\hat{Y})

定义 4.1(倾向分数的推荐 ERM)给定以边缘倾向 PPYY 中得到的训练观测 OO,一个预测 Y^\hat{Y} 的假设空间 H\mathcal{H},以及一个损失函数 δu,i(Y,Y^)\delta_{u,i}(Y,\hat{Y}),ERM 选择 Y^H\hat{Y}\in\mathcal{H} 最优化:

Y^ERM=arg minY^H{R^IPS(Y^P)}.\hat{Y}^{ERM}=\argmin_{\hat{Y}\in\mathcal{H}}\Big\{\hat{R}_{IPS}(\hat{Y}|P)\Big\}.

为说明倾向分数 ERM 方法的有效性,下面说明泛化误差上界,为简便只考虑有限 H\mathcal{H}

定理 4.2(倾向分数 ERM 的泛化误差上界)对于任意的有限的预测假设空间 H={Y^1,,Y^H}\mathcal{H}=\{\hat{Y}_1,\dots,\hat{Y}_{|\mathcal{H}|}\} 和损失 0δu,i(Y,Y^)Δ0\le\delta_{u,i}(Y,\hat{Y})\le\Delta,给定以相互独立的伯努利倾向 PPYY 中得到的训练观测 OO,使用 IPS 估计量从 H\mathcal{H} 中得到的经验风险最小的 Y^ERM\hat{Y}^{ERM} 的真实风险 R(Y^)R(\hat{Y})1η1-\eta 的概率上界为:

R(Y^ERM)R^IPS(Y^ERMP)+ΔUIlog(2H/η)2u,i1Pu,i2.R(\hat{Y}^{ERM})\le \hat{R}_{IPS}(\hat{Y}^{ERM}|P)+\frac{\Delta}{U\cdot I}\sqrt{\frac{\log(2|\mathcal{H}|/\eta)}{2}}\sqrt{\sum_{u,i}\frac{1}{P_{u,i}^2}}.

证明

Union bound

P(iAi)iP(Ai)P\bigg(\bigcup_iA_i\bigg)\le\sum_iP(A_i)

P(R^IPS(Y^P)R(Y^)ϵ)1η  P(maxY^iR(Y^i)R^IPS(Y^iP)ϵ)1η  P(Y^iR(Y^i)R^IPS(Y^iP)ϵ)<η  i=1HP(R(Y^i)R^IPS(Y^iP)ϵ)<η  H2exp(2ϵ2Δ2U2I2u,i1Pu,i2)<η\begin{aligned} &P\Big(\Big|\hat{R}_{IPS}(\hat{Y}|P)-R(\hat{Y})\Big|\le\epsilon\Big)\ge1-\eta\\ \Leftarrow \;&P\Big(\max_{\hat{Y}_i}\Big|R(\hat{Y}_i)-\hat{R}_{IPS}(\hat{Y}_i|P)\Big|\le\epsilon\Big)\ge1-\eta\\ \Leftrightarrow\;&P\Bigg(\bigvee_{\hat{Y}_i}\Big|R(\hat{Y}_i)-\hat{R}_{IPS}(\hat{Y}_i|P)\Big|\ge\epsilon\Bigg)<\eta\\ \Leftarrow\;&\sum_{i=1}^{|\mathcal{H}|}P\Big(\Big|R(\hat{Y}_i)-\hat{R}_{IPS}(\hat{Y}_i|P)\Big|\ge\epsilon\Big)<\eta\\ \Leftarrow\;& |\mathcal{H}|\cdot2\exp\Bigg(\frac{-2\epsilon^2}{\frac{\Delta^2}{U^2\cdot I^2}\sum_{u,i}\frac{1}{P_{u,i}^2}}\Bigg)<\eta \end{aligned}

解出 ϵ\epsilon 即证。

4.2 倾向分数矩阵分解

假设一个标准的 dd 阶限制且 L2L_2 正则化的有用户、物品和全局偏置的矩阵分解模型 Y^u,i=vuTwi+au+bi+c\hat{Y}_{u,i}=v_u^Tw_i+a_u+b_i+c 作为假设空间 H\mathcal{H}。倾向分数 ERM 得到下面的训练目标:

arg minV,W,A[Ou,i=1δu,i(Y,VTW+A)Pu,i+λ(VF2+WF2)](14)\argmin_{V,W,A}\Bigg[\sum_{O_{u,i}=1}\frac{\delta_{u,i}(Y,V^TW+A)}{P_{u,i}}+\lambda(\|V\|_F^2+\|W\|_F^2)\Bigg]\tag{14}

其中 AA 编码了偏置项,Y^ERM=VTW+A\hat{Y}^{ERM}=V^TW+A。可以很容易地利用现有的可以有效地、可扩展地解决训练问题的优化算法,本文的实验中使用的是存储受限的BFGS (Limited-memory BFGS)。

传统的不完整的矩阵分解是公式 (14) 对于完全随机缺失 MCAR (Missing Completely At Random) 数据的一种特例,即所有的倾向 Pu,iP_{u,i} 都相等。

5 对于观测数据的倾向估计

现在考虑观测背景 (Observational Setting),这时需要估计倾向。估计的倾向只需比朴素的均匀显示观测的假设(即对于所有用户和物品 P={(u,i):Ou,i=1}/(UI)P=|\{(u,i):O_{u,i}=1\}|/(U\cdot I))“更好”就行了。下面描述了就偏差 (bias) 和对学习过程的变化性 (variability) 的影响而言“更好”的倾向。

引理 5.1(IPS 估计量在不准确的倾向下的偏差)令 PP 是观测到评分矩阵 YY 中项的边缘概率,且 P^\hat{P} 为估计的倾向,满足对所有的 u,iu,iP^u,i>0\hat{P}_{u,i}>0。使用 P^\hat{P} 的公式 (10) IPS 估计量的偏差为:

bias(R^IPS(Y^P^))=u,iδu,i(Y,Y^)UI[1Pu,iP^u,i].\text{bias}\Big(\hat{R}_{IPS}(\hat{Y}|\hat{P})\Big)=\sum_{u,i}\frac{\delta_{u,i}(Y,\hat{Y})}{U\cdot I}\bigg[1-\frac{P_{u,i}}{\hat{P}_{u,i}}\bigg].

证明 偏差定义为

bias(R^IPS(Y^P^))=R(Y^)EO[R^IPS(Y^P^)],\text{bias}\Big(\hat{R}_{IPS}(\hat{Y}|\hat{P})\Big)=R(\hat{Y})-\mathbb{E}_O\Big[\hat{R}_{IPS}(\hat{Y}|\hat{P})\Big],

其中 R(Y^)R(\hat{Y})Y^\hat{Y} 在完整评分矩阵上的真实风险。展开两项得到

R(Y^)=1UIu,iδu,i(Y,Y^)EO[R^IPS(Y^P^)]=EO[1UI(u,i):Ou,i=1δu,i(Y,Y^)P^u,i]=1UIu,iEOu,i[δu,i(Y,Y^)P^u,iOu,i]=1UIu,iPu,iP^u,iδu,i(Y,Y^).\begin{aligned} R(\hat{Y})&=\frac{1}{U\cdot I}\sum_{u,i}\delta_{u,i}(Y,\hat{Y})\\ \mathbb{E}_O\Big[\hat{R}_{IPS}(\hat{Y}|\hat{P})\Big]&=\mathbb{E}_O\Big[\frac{1}{U\cdot I}\sum_{(u,i):O_{u,i}=1}\frac{\delta_{u,i}(Y,\hat{Y})}{\hat{P}_{u,i}}\Big]\\ &=\frac{1}{U\cdot I}\sum_{u,i}\mathbb{E}_{O_{u,i}}\Big[\frac{\delta_{u,i}(Y,\hat{Y})}{\hat{P}_{u,i}}O_{u,i}\Big]\\ &=\frac{1}{U\cdot I}\sum_{u,i}\frac{P_{u,i}}{\hat{P}_{u,i}}\delta_{u,i}(Y,\hat{Y}). \end{aligned}

两式相减即得。

下面的泛化误差上界描绘了估计的倾向对学习过程的总体影响。

定理 5.2(倾向分数 ERM 在不准确的倾向下的泛化误差上界)对于任意有限的预测假设空间 H={Y^1,,Y^H}\mathcal{H}=\{\hat{Y}_1,\dots,\hat{Y}_{|\mathcal{H}|}\},使用估计倾向 P^\hat{P} (P^u,i>0\hat{P}_{u,i}>0) 的 IPS 估计量,并给定以相互独立的伯努利倾向 PPYY 中得到的训练观测 OO,经验风险最小的 Y^ERM\hat{Y}^{ERM} 的转导 (transductive) 预测误差上界为:

R(Y^ERM)R^IPS(Y^ERMP^)+ΔUIu,i1Pu,iP^u,i+ΔUIlog(2H/η)2u,i1P^u,i2.R(\hat{Y}^{ERM})\le\hat{R}_{IPS}(\hat{Y}^{ERM}|\hat{P})+\frac{\Delta}{U\cdot I}\sum_{u,i}\Bigg|1-\frac{P_{u,i}}{\hat{P}_{u,i}}\Bigg|+\frac{\Delta}{U\cdot I}\sqrt{\frac{\log(2|\mathcal{H}|/\eta)}{2}}\sqrt{\sum_{u,i}\frac{1}{\hat{P}_{u,i}^2}}.

证明 首先,注意到由引理 5.1 可得

R(Y^ERM)=R(Y^ERM)EO[R^IPS(Y^ERMP)]+EO[R^IPS(Y^ERMP)]=bias(R^IPS(Y^ERMP^))+EO[R^IPS(Y^ERMP)]ΔUIu,i1Pu,iP^u,i+EO[R^IPS(Y^ERMP)]\begin{aligned} R(\hat{Y}^{ERM})&=R(\hat{Y}^{ERM})-\mathbb{E}_O\Big[\hat{R}_{IPS}(\hat{Y}^{ERM}|P)\Big]+\mathbb{E}_O\Big[\hat{R}_{IPS}(\hat{Y}^{ERM}|P)\Big]\\ &=\text{bias}\Big(\hat{R}_{IPS}(\hat{Y}^{ERM}|\hat{P})\Big)+\mathbb{E}_O\Big[\hat{R}_{IPS}(\hat{Y}^{ERM}|P)\Big]\\ &\le\frac{\Delta}{U\cdot I}\sum_{u,i}\Bigg|1-\frac{P_{u,i}}{\hat{P}_{u,i}}\Bigg|+\mathbb{E}_O\Big[\hat{R}_{IPS}(\hat{Y}^{ERM}|P)\Big] \end{aligned}

再找出下面的界

P(R^IPS(Y^ERMP^)EO[R^IPS(Y^ERMP^)]ϵ)1η  H2exp(2ϵ2Δ2U2I2u,i1P^u,i2)<η.\begin{aligned} &P\Big(\Big|\hat{R}_{IPS}(\hat{Y}^{ERM}|\hat{P})-\mathbb{E}_O\Big[\hat{R}_{IPS}(\hat{Y}^{ERM}|\hat{P})\Big]\Big|\le\epsilon\Big)\ge1-\eta\\ \Leftarrow\;&|\mathcal{H}|\cdot2\exp\Bigg(\frac{-2\epsilon^2}{\frac{\Delta^2}{U^2\cdot I^2}\sum_{u,i}\frac{1}{\hat{P}_{u,i}^2}}\Bigg)<\eta. \end{aligned}

中间过程与定理 4.2 的证明过程类似。调整各项的位置再加上偏差 (bias) 即证。

这个界体现了传统 ERM 中没有的偏差-方差权衡 (bias-variance trade-off)。特别是,如果过高估计较小的倾向降低的变化性 (variability) 要比增加的偏差多的话,这样做是有益的。

5.1 倾向估计模型

一般来说,倾向

Pu,i=P(Ou,i=1X,Xhid,Y)(17)P_{u,i}=P(O_{u,i}=1|X,X^{hid},Y)\tag{17}

依赖一些可观测到的特征 XX(如显示给用户的预测评分),不可观测到的特征 XhidX^{hid}(如是否这个物品是被朋友推荐的),以及评分 YY。一旦考虑到可观测到的特征,合理假设 Ou,iO_{u,i} 与新预测 Y^\hat{Y} 相互独立(从而与 δu,i(Y,Y^)\delta_{u,i}(Y,\hat{Y}) 相互独立)。

使用朴素贝叶斯的倾向估计 假设协变量 XX, XhidX^{hid} 和其他评分之间的依赖关系很小,公式 (17) 可以简化为 P(Ou,iYu,i)P(O_{u,i}|Y_{u,i})。将 Yu,iY_{u,i} 视为已观测到的,由于我们只需要已观测到的项的倾向来计算 IPS 和 SNIPS。因此有朴素贝叶斯 (Naive Bayes) 倾向估计量:

P(Ou,i=1Yu,i=r)=P(Y=rO=1)P(O=1)P(Y=r).P(O_{u,i}=1|Y_{u,i}=r)=\frac{P(Y=r|O=1)P(O=1)}{P(Y=r)}.

可以从 MNAR 数据中已观测到的评分得出 P(Y=rO=1)P(Y=r|O=1)P(O=1)P(O=1) 的最大似然估计。然而,要估计 P(Y=r)P(Y=r),需要 MCAR 数据的小样本。

使用逻辑回归的倾向估计 逻辑回归常用于因果推断,无需 MCAR 数据的样本。对于公式 (17),目标是找到模型参数 ϕ\phi 使得 OO 与未观测到的 XhidX^{hid}YY 相互独立,即 P(Ou,iX,Xhid,Y)=P(Ou,iX,ϕ)P(O_{u,i}|X,X^{hid},Y)=P(O_{u,i}|X,\phi)。主要的模型假设是存在 ϕ=(w,β,γ)\phi=(w,\beta,\gamma) 使得 Pu,i=σ(wTXu,i+βi+γu)P_{u,i}=\sigma(w^TX_{u,i}+\beta_i+\gamma_u),其中 Xu,iX_{u,i} 是一个编码了所有关于一个用户-物品对的可观测到的信息(如用户统计信息,物品是否促销等等)的向量,σ()\sigma(\cdot) 是 sigmoid 函数,βi\beta_iγu\gamma_u 是各物品和各用户的偏置。

相比于其他的判别式模型,逻辑回归对于倾向预测有一些有吸引力的性质。对于逻辑倾向模型,观察到在 MLE 估计最优时,有下面两个等式成立:

i:uOu,i=uPu,iu:iOu,i=iPu,i.\begin{aligned} \forall i:&\sum_uO_{u,i}=\sum_uP_{u,i}\\ \forall u:&\sum_iO_{u,i}=\sum_iP_{u,i}. \end{aligned}

也就是说,逻辑倾向模型能够学习到校准良好 (well-calibrated) 的边缘概率。

证明

sigmoid 函数:σ(x)=11+ex=exex+1\sigma(x)=\frac{1}{1+e^{-x}}=\frac{e^x}{e^x+1}

Pu,i=ewTXu,i+βi+γu1+ewTXu,i+βi+γuP_{u,i}=\frac{e^{w^TX_{u,i}+\beta_i+\gamma_u}}{1+e^{w^TX_{u,i}+\beta_i+\gamma_u}}

OO 的分布律为

P(Ou,i=k)=(ewTXu,i+βi+γu1+ewTXu,i+βi+γu)k(11+ewTXu,i+βi+γu)1k,k=0,1.P(O_{u,i}=k)=\bigg(\frac{e^{w^TX_{u,i}+\beta_i+\gamma_u}}{1+e^{w^TX_{u,i}+\beta_i+\gamma_u}}\bigg)^{k}\bigg(\frac{1}{1+e^{w^TX_{u,i}+\beta_i+\gamma_u}}\bigg)^{1-k},\quad k=0,1.

故似然函数为

L(ϕ)=u,i[(ewTXu,i+βi+γu1+ewTXu,i+βi+γu)ku,i(11+ewTXu,i+βi+γu)1ku,i]logL(ϕ)=u,i[ku,i(wTXu,i+βi+γu)ku,ilog(1+ewTXu,i+βi+γu)+(ku,i1)log(1+ewTXu,i+βi+γu)]=u,i[ku,i(wTXu,i+βi+γu)log(1+ewTXu,i+βi+γu)]=(u,i):Ou,i=1(wTXu,i+βi+γu)u,ilog(1+ewTXu,i+βi+γu)\begin{aligned} L(\phi)&=\prod_{u,i}\Bigg[\bigg(\frac{e^{w^TX_{u,i}+\beta_i+\gamma_u}}{1+e^{w^TX_{u,i}+\beta_i+\gamma_u}}\bigg)^{k_{u,i}}\bigg(\frac{1}{1+e^{w^TX_{u,i}+\beta_i+\gamma_u}}\bigg)^{1-k_{u,i}}\Bigg]\\ \log L(\phi)&=\sum_{u,i}\bigg[k_{u,i}\Big(w^TX_{u,i}+\beta_i+\gamma_u\Big)-k_{u,i}\log\Big(1+e^{w^TX_{u,i}+\beta_i+\gamma_u}\Big)+(k_{u,i}-1)\log\Big(1+e^{w^TX_{u,i}+\beta_i+\gamma_u}\Big)\bigg]\\ &=\sum_{u,i}\bigg[k_{u,i}\Big(w^TX_{u,i}+\beta_i+\gamma_u\Big)-\log\Big(1+e^{w^TX_{u,i}+\beta_i+\gamma_u}\Big)\bigg]\\ &=\sum_{(u,i):O_{u,i}=1}\Big(w^TX_{u,i}+\beta_i+\gamma_u\Big)-\sum_{u,i}\log\Big(1+e^{w^TX_{u,i}+\beta_i+\gamma_u}\Big) \end{aligned}

简化后的整个模型的 log 似然函数为:

(OX,ϕ)=(i,u):Ou,i=1[wTXu,i+βi+γu]i,ulog[1+ewTXu,i+βi+γu].\ell(O|X,\phi)=\sum_{(i,u):O_{u,i}=1}[w^TX_{u,i}+\beta_i+\gamma_u]-\sum_{i,u}\log\Big[1+e^{w^TX_{u,i}+\beta_i+\gamma_u}\Big].

对于任意物品 ii 对偏置项 βi\beta_i 的梯度(γu\gamma_u 与之类似):

βi=uOu,iuPu,i.\frac{\partial\ell}{\partial\beta_i}=\sum_uO_{u,i}-\sum_uP_{u,i.}

令梯度为 0 可解得结论。