一体化:图神经网络的多任务提示

孙相国、程鸿、李佳、刘波、关佶红
最近,预训练和微调范式已成为许多图任务的标准工作流程,因为这些方法可以利用通用的图知识来缓解每个应用中图注释的缺乏。然而,具有节点级、边缘级和图级的图任务千差万别,使得预训练的前提往往与多个任务不兼容。这种差距甚至可能导致对特定应用程序的「负迁移」,从而使得效...

用户分享观点: