首页 产业新闻 港大开源图基础大模型OpenGraph 增强图学习泛化能力

港大开源图基础大模型OpenGraph 增强图学习泛化能力

产业新闻 14

    香港大学数据智能实验室主任黄超团队开发了一款名为 OpenGraph 的图基础大模型,专注于在多种图数据集上进行零样本预测。该模型通过学习通用的图结构模式,仅通过前向传播即可对全新数据进行预测,有效缓解了图学习领域的数据饥荒问题。

    关键特点:

    强泛化能力:OpenGraph 旨在通过图结构模式学习,实现对未见数据的零样本预测。提示调整技术:团队提出的提示调整技术提高了模型对新任务的适应性。GitHub 开源:该工作已在 GitHub 上开源,供学术界和工业界使用和研究。数据集间 token 差异解决:模型能够跨不同图数据集进行预测,解决了数据集间 token 差异的问题。节点关系建模:在构建通用图模型时,有效建模节点关系,对模型的扩展性和效率至关重要。数据稀缺问题的解决:通过大型语言模型进行数据增强,模拟复杂的图结构关系,提升模型训练质量。模型架构:OpenGraph 模型由统一图 Tokenizer、可扩展的图 Transformer 和基于大语言模型的知识蒸馏技术三个核心部分组成。实验验证:在多样化的真实场景数据集上进行测试,涵盖节点分类和链接预测任务,OpenGraph 在零样本预测中表现优异。未来工作:团队计划增加框架的自动化能力,自动识别噪声连接,进行反事实学习,并提取图结构的通用模式,以推动模型的应用范围和效果。

    强泛化能力:OpenGraph 旨在通过图结构模式学习,实现对未见数据的零样本预测。

    提示调整技术:团队提出的提示调整技术提高了模型对新任务的适应性。

    GitHub 开源:该工作已在 GitHub 上开源,供学术界和工业界使用和研究。

    数据集间 token 差异解决:模型能够跨不同图数据集进行预测,解决了数据集间 token 差异的问题。

    节点关系建模:在构建通用图模型时,有效建模节点关系,对模型的扩展性和效率至关重要。

    数据稀缺问题的解决:通过大型语言模型进行数据增强,模拟复杂的图结构关系,提升模型训练质量。

    模型架构:OpenGraph 模型由统一图 Tokenizer、可扩展的图 Transformer 和基于大语言模型的知识蒸馏技术三个核心部分组成。

    实验验证:在多样化的真实场景数据集上进行测试,涵盖节点分类和链接预测任务,OpenGraph 在零样本预测中表现优异。

    未来工作:团队计划增加框架的自动化能力,自动识别噪声连接,进行反事实学习,并提取图结构的通用模式,以推动模型的应用范围和效果。

    研究结论:

    OpenGraph 作为图基础模型构建的初步尝试,通过在多个标准数据集上的广泛测试,证明了其出色的泛化性能。研究人员希望借助 OpenGraph 显著增强模型在零样本图学习任务中的泛化能力,并探索多种下游应用。

    项目地址//github.com/HKUDS/OpenGraph

    论文地址//arxiv.org/pdf/2403.01121