首頁 > 科技週邊 > 人工智慧 > 港大開源圖基礎大模型OpenGraph: 強泛化能力,前向傳播預測全新數據

港大開源圖基礎大模型OpenGraph: 強泛化能力,前向傳播預測全新數據

WBOY
發布: 2024-05-09 12:01:02
轉載
341 人瀏覽過

图学习领域的数据饥荒问题,又有能缓解的新花活了!

OpenGraph,一个基于图的基础模型,专门用于在多种图数据集上进行零样本预测。

港大数据智能实验室的负责人Chao Huang团队,他们也针对模型提出了提升调整技术,以提高模型对新任务的适应性。

目前,这项工作已经挂上了GitHub。

介绍数据增强技术,此工作主要是深入探讨增强图模型泛化能力的策略(特别是在训练和测试数据存在显著差异时)。

OpenGraph是一种通用的图结构模式,通过传播预测进行前向传播,实现对全新数据的零样本预测。

港大开源图基础大模型OpenGraph: 强泛化能力,前向传播预测全新数据

为了实现目标,团队解决了以下3点挑战:

  • 数据集间的token差异:不同图数据集常有不同的图token集,我们需要模型能够跨数据集进行预测。
  • 节点关系建模:在构建通用图模型时,有效地建模节点关系至关重要,这关系到模型的扩展性和效率。
  • 数据稀缺:面对数据获取的难题,我们通过大型语言模型进行数据增强,以模拟复杂的图结构关系,提升模型训练质量。

通过一系列创新方法,如拓扑感知的BERT Tokenizer和基于锚点的图Transformer,OpenGraph有效应对了上述挑战。在多个数据集上的测试结果证明了模型的出色泛化能力,能够对模型的彩色泛化能力进行有效评估。

OpenGraph模型

OpenGraph模型架构主要由3个核心部分组成:

  • 统一图Tokenizer。
  • 可扩展的图Transformer。
  • 基于大语言模型的知识蒸馏技术。

首先来说说统一图Tokenizer。

为了适应不同数据集的节点和边的差异,团队开发了统一图Tokenizer,它将图数据标准化为token序列。

这一过程包括高阶邻接矩阵平滑化和拓扑感知映射。

高阶邻接矩阵平滑化即利用邻接矩阵的高阶幂来解决连接稀疏的问题,而拓扑感知映射则是将邻接矩阵转换为节点序列,并使用快速奇异值分解(SVD)最小化信息损失,保留更多的图结构信息。

其次是可扩展的图Transformer。

在token化后,OpenGraph使用Transformer架构模拟节点间的依赖,主要采用以下技术优化模型性能和效率:

一来是token序列采样,通过采样技术减少模型需要处理的关系数量,从而降低训练的时间和空间复杂度。

二来是锚点采样的自注意力机制。此方法进一步降低计算复杂度,通过分阶段学习节点间的信息传递,有效提高模型的训练效率和稳定性。

最后是大语言模型知识蒸馏。

为了应对培训通用图模型时面临的数据隐私和种类多样性问题,团队从大语言模型(LLM)的知识和理解能力中获得灵感,使用LLM生成各种图结构数据。

这一数据增强机制通过模拟真实世界图的特征,有效提升了数据的质量和实用性。

团队还首先生成适应特定应用的节点集,每个节点拥有文本描述以便生成边。

在面对如电子商务平台这种大规模节点集时,研究人员通过将节点细分为更具体的子类别来处理。

例如,从“电子产品”细化到具体的“移动电话”“笔记本电脑”等,此过程反复进行,直到节点精细到接近真实实例。

提示树算法则按树状结构将节点细分,并生成更细致的实体。

从一般的类别如“产品”开始,逐步细化到具体的子类别,最终形成节点树。

至于边的生成,利用吉布斯采样,研究人员基于已生成的节点集来形成边。

为了减少计算负担,我们不直接通过LLM遍历所有可能的边,而是先利用LLM计算节点间的文本相似度,再通过简单的算法判断节点关系。

在此基础上,团队引入了几种技术调整:

  • 動態機率標準化:透過動態調整,將相似度對應到更適合取樣的機率範圍內。
  • 節點局部性:引入局部性概念,只在節點的局部子集間建立連接,模擬現實世界中的網路局部性。
  • 圖拓樸模式註入:使用圖卷積網路修正節點表示,以更好地適應圖結構特徵,減少分佈偏差。

以上步驟確保了產生的圖資料不僅豐富多樣,而且貼近現實世界的連結模式和結構特性。

實驗驗證與效能分析

需要注意,該實驗專注於使用僅由LLM產生的資料集訓練OpenGraph模型,並在多樣化的真實場景資料集上進行測試,涵蓋節點分類和連結預測任務。

實驗設計如下:

零樣本設定。

為了評估OpenGraph在未見過的資料上的表現,我們在產生的訓練集上訓練模型,然後在完全不同的真實測試集上進行評估。確保了訓練和測試資料在節點、邊和特徵上均無重合。

少樣本設定。

考慮到許多方法難以有效執行零樣本預測,我們引入少樣本設置,基線模型在預訓練資料上預訓練後,採用k-shot樣本進行微調。

在2個任務和8個測試集上的結果顯示,OpenGraph在零樣本預測中顯著優於現有方法。

此外,現有預訓練模型在跨資料集任務中的表現有時不如從頭訓練的模型。

圖Tokenizer設計影響研究

同時,團隊探索了圖Tokenizer設計如何影響模型效能。

首先,透過實驗發現,不進行鄰接矩陣平滑(平滑階數為0)會顯著降低效能,說明平滑處理的必要性。

然後,研究人員嘗試了幾種簡單的拓撲感知替代方案:跨資料集的獨熱編碼ID、隨機映射和基於節點度數的表示。

實驗結果顯示,這些替代方案性能均不理想。

具體來說,跨資料集的ID表示效果最差,基於度數的表示也表現不佳,而隨機映射雖稍好,但與優化的拓撲感知映射相比,效能差距明顯。

港大开源图基础大模型OpenGraph: 强泛化能力,前向传播预测全新数据

資料產生技術的影響

團隊調查了不同預訓練資料集對OpenGraph性能的影響,包括使用基於LLM的知識蒸餾方法產生的資料集,以及幾個真實資料集。

實驗中比較的預訓練資料集包括從團隊生成方法中移除某項技術後的資料集、2個與測試資料集無關的真實資料集(Yelp2018和Gowalla)、1個與測試資料集類似的真實資料集(ML-10M)

實驗結果顯示,生成資料集在所有測試集上都展示了良好性能;三種生成技術的移除都顯著影響了性能,驗證了這些技術的有效性。

使用與測試集無關的真實資料集(如Y​​elp和Gowalla)訓練時,效能有時會下降,這可能是由於不同資料集之間的分佈差異。

ML-10M資料集在與之類似的測試資料集(如ML-1M和ML-10M)上取得了最佳效能,突顯了訓練和測試資料集相似性的重要性。

港大开源图基础大模型OpenGraph: 强泛化能力,前向传播预测全新数据

Transformer取樣技術的研究

在這部分實驗中,研究團隊探討了圖Transformer模組中所使用的兩種取樣技術:

token序列採樣(Seq)和錨點採樣(Anc)。

他們對這兩種採樣方法進行了詳細的消融實驗,以評估它們對模型性能的具體影響。

港大开源图基础大模型OpenGraph: 强泛化能力,前向传播预测全新数据

實驗結果表明,無論是token序列取樣還是錨點取樣,兩者都能在訓練和測試階段有效地減少模型的空間和時間複雜度。這對於處理大規模圖資料尤其重要,可以顯著提高效率。

從效能的角度分析,token序列取樣對模型的整體效能產生了正面影響。這種採樣策略透過選取關鍵的token來優化圖的表示,從而提高了模型處理複雜圖結構的能力。

相比之下,在ddi数据集上的实验显示,锚点采样可能对模型性能产生负面影响。锚点采样通过选择特定的节点作为锚点来简化图结构,但这种方法可能会忽略一些关键的图结构信息,从而影响模型的准确性。

综上所述,虽然这两种采样技术都有其优势,但在实际应用中需要根据具体的数据集和任务需求仔细选择合适的采样策略。

研究结论

本研究旨在开发一个高适应性框架,该框架能够精确地识别和解析各种图结构的复杂拓扑模式。

研究人员的目标是通过充分发挥所提出模型的能力,显著增强模型在零样本图学习任务中的泛化能力,包括多种下游应用。

模型是在可扩展的图Transformer架构和LLM增强的数据增强机制的支持下构建的,以提升OpenGraph的效率和健壮性。

通过在多个标准数据集上进行的广泛测试,团队证明了模型的出色泛化性能。

港大开源图基础大模型OpenGraph: 强泛化能力,前向传播预测全新数据

据了解,作为对图基础模型构建的初步尝试,未来,团队工作将着重于增加框架的自动化能力,包括自动识别噪声连接和进行反事实学习。

同时,团队计划学习和提取各种图结构的通用且可迁移的模式,进一步推动模型的应用范围和效果。

参考链接:

[1]论文: https://arxiv.org/pdf/2403.01121.pdf。

[2]源码库:https://github.com/HKUDS/OpenGraph。

以上是港大開源圖基礎大模型OpenGraph: 強泛化能力,前向傳播預測全新數據的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:51cto.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
最新問題
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板