无参数的自权重多图学习(Auto-weighted Multiple Graph Learning, AMGL)是一种用于多视图学习的方法,特别适用于处理具有多个角度或特征表示
的数据。
AMGL的目标是在不需要人工设定参数
的情况下,自动确定不同视图或图的相对重要性
,从而整合多个图的信息来提高分类或聚类的准确性。
AMGL 方法概述
AMGL 方法主要关注如何有效地结合
多个图的信息。
在传统的多图学习中,不同的图可能代表了数据的不同方面或特征,而AMGL则试图找到一个最优的权重分配策略
,使得最终的融合图
能够最大程度地保留原始数据的内在结构。
AMGL 的公式
假设我们有 个图 ,其中每个图 包含相同的顶点集合
和不同的边集合
与权重矩阵
目标是学习一个权重向量
,并构建一个综合图
,其中
拉普拉斯矩阵
对于每个图 ,我们可以构造其对应的拉普拉斯矩阵
,其中 是 的度矩阵
,即 的对角元素是 的行和。
目标函数
AMGL 的目标函数旨在最小化所有视图的总变化
,同时保持图之间的差异性
,可以用以下公式表示:
其中,
- 是第
- 是一个矩阵,用于
衡量不同视图之间的相似性
,通常由数据的协方差矩阵
得到。
约束条件
AMGL 方法还包含两个约束条件:
- ,确保权重向量
归一化
,即所有视图的权重总和为1。
解决方案
AMGL 的目标函数可以通过求解二次规划
问题来解决。
一旦得到了最优的权重向量
公式字符解释
- :第
- :第
- :第
- :第
- :第
通过以上方法,AMGL 能够自动学习到不同视图的重要性
,进而提升基于图的学习任务的性能。