Lasso变体:Group Lasso,Sparse Group Lasso
关于Lasso回归的讲解可以看我的另一篇博客:Lasso回归系列二:Lasso回归/岭回归的原理
Group Lasso
在Lasso回归中,是单独地看待每个特征(即假定特征不存在先验的分组),但有些使用场景下,变量本身就存在分组,比如在股市分析问题中,来自同一个商业领域的公司可以划分到一个小组。在2006年【Model selection and estimation in regression with grouped variables】论文提出Group Lasso,通过引入特征先验的分组信息来解决这类问题:数据的变量之间本身就存在一些已知的分组关系。
根据先验的变量之间的分组信息,权重 可以被分成 组,分组后 , 代表一组来自 的权重,其中 $ 1≤l≤m$ 。进一步我们对数据 也进行分组,代表对应 的子矩阵。这个优化问题就变成了
其中 代表 中权重参数的个数。
Group Lasso倾向于把一个组的变量当作一个整体,如果这一组变量是有意义的,那么就会选择该组的所有变量,否则,整组变量对应的参数会被设置为0。
如上图所示,是一组变量, 是第二组变量,
我们仍旧可以用“不可微分的地方更容易和平方误差等值项相交”的规律来进行分析。在 所在的平面上更容易出现不可微的点,此时 ,即第二组变量对应 的参数为0,第二组变量被抛弃。
此外,我们还可以发现,当m=1时,Group Lasso就等价于岭回归,当m=n时,Group Lasso就变成了Lasso回归。
Sparse Group Lasso
Sparse Group Lasso是Lasso和Group Lasso的线性结合,最终得到的结果同样也是介于Lasso和Group Lasso的结果之间。
Sparse Group Lasso 是一种非常受欢迎的变量选择方法,能够从最有意义的变量组中选出最有意义的变量。
此时,优化问题就变成了:
其中包含两个需要优化的参数: 和 , 控制惩罚力度, 权衡Lasso和Group Lasso的比重,通常可以通过网格搜索确定这两个参数的值。
文章出处登录后可见!