<tr id="tp1vn"><td id="tp1vn"><dl id="tp1vn"></dl></td></tr>
  1. <p id="tp1vn"></p>
  2. <sub id="tp1vn"><p id="tp1vn"></p></sub>
    <u id="tp1vn"><rp id="tp1vn"></rp></u>
    <meter id="tp1vn"></meter>
      <wbr id="tp1vn"><sup id="tp1vn"></sup></wbr>
      日韩第一页浮力,欧美a在线,中文字幕无码乱码人妻系列蜜桃 ,国产成人精品三级麻豆,国产男女爽爽爽免费视频,中文字幕国产精品av,两个人日本www免费版,国产v精品成人免费视频71pao
      網(wǎng)易首頁 > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

      層超圖網(wǎng)絡(luò)

      0
      分享至

      層超圖網(wǎng)絡(luò) Sheaf Hypergraph Networks

      https://arxiv.org/pdf/2309.17116


      摘要

      高階關(guān)系在自然界中廣泛存在,眾多現(xiàn)象涉及超越簡(jiǎn)單成對(duì)連接的復(fù)雜交互。因此,高階處理領(lǐng)域的進(jìn)展能夠加速需要結(jié)構(gòu)化數(shù)據(jù)的各個(gè)領(lǐng)域的發(fā)展。當(dāng)前方法通常使用超圖來表示這些交互。我們通過為超圖引入胞腔層(cellular sheaves)來增強(qiáng)這種表示,這是一種數(shù)學(xué)構(gòu)造,它在保持傳統(tǒng)超圖局部高階連通性的同時(shí),為其添加了額外結(jié)構(gòu)。受文獻(xiàn)中現(xiàn)有拉普拉斯算子的啟發(fā),我們開發(fā)了兩種獨(dú)特的層超圖拉普拉斯算子公式:線性和非線性。我們的理論分析表明,將層(sheaves)融入超圖拉普拉斯算子中,比標(biāo)準(zhǔn)超圖擴(kuò)散提供了更具表達(dá)力的歸納偏置,從而為有效建模復(fù)雜數(shù)據(jù)結(jié)構(gòu)創(chuàng)造了一個(gè)強(qiáng)有力的工具。我們利用這些層超圖拉普拉斯算子設(shè)計(jì)了兩類模型:層超圖神經(jīng)網(wǎng)絡(luò)與層超圖卷積網(wǎng)絡(luò)。這些模型推廣了文獻(xiàn)中常見的經(jīng)典超圖網(wǎng)絡(luò)。通過大量實(shí)驗(yàn),我們證明了這種推廣顯著提升了性能,在多個(gè)用于超圖節(jié)點(diǎn)分類的基準(zhǔn)數(shù)據(jù)集上取得了頂尖結(jié)果。

      1 引言

      關(guān)系數(shù)據(jù)在現(xiàn)實(shí)場(chǎng)景中的普遍存在,促使基于圖的方法在眾多領(lǐng)域得到快速發(fā)展并廣泛應(yīng)用[1–4]。然而,圖的一個(gè)主要局限性在于其無法表示超越成對(duì)關(guān)系的交互。相比之下,現(xiàn)實(shí)世界中的交互往往是復(fù)雜且多層面的。有證據(jù)表明,高階關(guān)系經(jīng)常出現(xiàn)在神經(jīng)科學(xué)[5, 6]、化學(xué)[7]、環(huán)境科學(xué)[8, 9]和社交網(wǎng)絡(luò)[10]中。因此,學(xué)習(xí)強(qiáng)大且有意義的超圖表示已成為深度學(xué)習(xí)中一個(gè)充滿前景且快速發(fā)展的子領(lǐng)域[11–16]。然而,當(dāng)前基于超圖的模型難以有效捕捉高階關(guān)系。如[17]所述,傳統(tǒng)的超圖神經(jīng)網(wǎng)絡(luò)常常面臨過平滑問題。當(dāng)我們?cè)诔瑘D內(nèi)部傳播信息時(shí),節(jié)點(diǎn)的表示會(huì)在鄰域內(nèi)趨于一致。這種效應(yīng)阻礙了超圖模型捕捉局部高階細(xì)微特征的能力。

      需要更強(qiáng)大、更靈活的數(shù)學(xué)構(gòu)造來更好地捕捉現(xiàn)實(shí)世界交互的復(fù)雜性。層(sheaves)為圖提供了一種合適的增強(qiáng)方式,能夠?qū)崿F(xiàn)更多樣化、更具表達(dá)力的表示。胞腔層[18]能夠?qū)?shù)據(jù)附加到圖上,其方法是為節(jié)點(diǎn)關(guān)聯(lián)向量空間,并配備一種沿邊傳遞信息的機(jī)制。這種方法允許更豐富的數(shù)據(jù)表示,并增強(qiáng)了建模復(fù)雜交互的能力。

      出于對(duì)更具表達(dá)力結(jié)構(gòu)的需求,我們?yōu)槌瑘D引入了胞腔層,它允許表示更復(fù)雜的動(dòng)態(tài),同時(shí)保留超圖固有的高階連通性。我們迎接這一非平凡挑戰(zhàn),將兩種常用的超圖拉普拉斯算子[19, 11]進(jìn)行推廣,以融入層所提供的更豐富結(jié)構(gòu)。理論上,我們證明了使用我們提出的層超圖拉普拉斯算子推導(dǎo)出的擴(kuò)散過程,比經(jīng)典超圖擴(kuò)散誘導(dǎo)了更具表達(dá)力的歸納偏置。借助這種增強(qiáng)的歸納偏置,我們構(gòu)建并測(cè)試了兩個(gè)強(qiáng)大的神經(jīng)網(wǎng)絡(luò),它們能夠推斷和處理超圖層結(jié)構(gòu):層超圖神經(jīng)網(wǎng)絡(luò)(SheafHyperGNN)和層超圖卷積網(wǎng)絡(luò)(SheafHyperGCN)。

      超圖胞腔層的引入擴(kuò)展了表示復(fù)雜交互的潛力,并為更先進(jìn)的技術(shù)奠定了基礎(chǔ)。通過利用層結(jié)構(gòu)推廣超圖拉普拉斯算子,我們能夠更好地捕捉現(xiàn)實(shí)世界數(shù)據(jù)的細(xì)微差別與復(fù)雜性。此外,我們的理論分析提供了證據(jù),表明層超圖拉普拉斯算子體現(xiàn)了更具表達(dá)力的歸納偏置,這對(duì)于獲得強(qiáng)大的表示至關(guān)重要。

      我們的主要貢獻(xiàn)總結(jié)如下:

      1. 我們?yōu)槌瑘D引入了胞腔層,這是一種數(shù)學(xué)構(gòu)造,通過為每個(gè)節(jié)點(diǎn)和超邊關(guān)聯(lián)一個(gè)向量空間,并配備使它們之間能夠進(jìn)行信息傳遞的線性投影,從而為超圖增強(qiáng)了額外結(jié)構(gòu)。
      2. 我們提出了線性和非線性的層超圖拉普拉斯算子,推廣了文獻(xiàn)中常用的標(biāo)準(zhǔn)超圖拉普拉斯算子。我們還對(duì)這些拉普拉斯算子擴(kuò)散過程所產(chǎn)生的歸納偏置進(jìn)行了理論刻畫,展示了利用這些新穎工具有效建模復(fù)雜現(xiàn)象的優(yōu)勢(shì)。
      3. 這兩種層超圖拉普拉斯算子構(gòu)成了專為超圖處理設(shè)計(jì)的兩種新穎架構(gòu)的基礎(chǔ):層超圖神經(jīng)網(wǎng)絡(luò)和層超圖卷積網(wǎng)絡(luò)。實(shí)驗(yàn)結(jié)果表明,這些模型取得了頂尖性能,在眾多基準(zhǔn)數(shù)據(jù)集上超越了現(xiàn)有方法。

      2 相關(guān)工作

      圖上的層。 利用現(xiàn)實(shí)世界數(shù)據(jù)中的圖結(jié)構(gòu)已推動(dòng)醫(yī)療保健[1]、生物化學(xué)[2]、社交網(wǎng)絡(luò)[20]、推薦系統(tǒng)[3]、交通預(yù)測(cè)[21]等多個(gè)領(lǐng)域的進(jìn)步,圖神經(jīng)網(wǎng)絡(luò)(GNN)已成為圖表示的標(biāo)準(zhǔn)。然而,在異配設(shè)置中,當(dāng)具有不同標(biāo)簽的節(jié)點(diǎn)更有可能相連時(shí),直接處理圖結(jié)構(gòu)會(huì)導(dǎo)致性能不佳。文獻(xiàn)[22]通過以胞腔層[18]的形式為圖附加額外的幾何結(jié)構(gòu)來解決這一問題。

      圖上的胞腔層為每個(gè)節(jié)點(diǎn)和每條邊關(guān)聯(lián)一個(gè)向量空間,并為每個(gè)關(guān)聯(lián)對(duì)提供這些空間之間的線性投影。為了考量這種更復(fù)雜的幾何結(jié)構(gòu),SheafNN [23] 通過將圖拉普拉斯算子替換為層拉普拉斯算子[27],對(duì)經(jīng)典GNN [24–26] 進(jìn)行了推廣。研究者探索了基于高維層的神經(jīng)網(wǎng)絡(luò),其中的層結(jié)構(gòu)要么從圖中學(xué)習(xí)得到[22],要么出于效率考慮進(jìn)行確定性推斷[28]。近期的方法集成了注意力機(jī)制[29],或用波動(dòng)方程替代了傳播過程[30]。在最新進(jìn)展中,層神經(jīng)網(wǎng)絡(luò)被發(fā)現(xiàn)能顯著提升推薦系統(tǒng)的性能,因?yàn)樗鼈兏倪M(jìn)了圖神經(jīng)網(wǎng)絡(luò)的局限性[31]。

      在異構(gòu)圖領(lǐng)域,為不同類型的邊學(xué)習(xí)獨(dú)特消息傳遞函數(shù)的概念已十分成熟。然而,與RGCN [32]等異構(gòu)圖方法相比,基于層的方法在處理該任務(wù)的方式上存在區(qū)別。后者為每種關(guān)聯(lián)關(guān)系學(xué)習(xí)獨(dú)立的參數(shù),而基于層的方法則依賴于與節(jié)點(diǎn)和超邊相關(guān)的特征,動(dòng)態(tài)預(yù)測(cè)每種關(guān)系的投影。因此,層網(wǎng)絡(luò)中的參數(shù)總量不會(huì)隨著超邊數(shù)量的增加而急劇膨脹。這一差異凸顯了兩種方法在底層范式上的根本性轉(zhuǎn)變。

      超圖網(wǎng)絡(luò)。 圖雖然有用,但有一個(gè)顯著的局限性:它們只能表示成對(duì)關(guān)系。許多自然現(xiàn)象涉及復(fù)雜的高階交互[33–35, 9],需要像超圖這樣更通用的結(jié)構(gòu)。近年來,針對(duì)超圖結(jié)構(gòu)已開發(fā)出多種深度學(xué)習(xí)方法。HyperGNN [11] 將超圖擴(kuò)展為加權(quán)團(tuán),并應(yīng)用類似于GCN [24] 的消息傳遞。HNHN [36] 通過引入非線性操作對(duì)此進(jìn)行了改進(jìn),而HyperGCN [37] 則使用非線性拉普拉斯算子僅連接差異最顯著的節(jié)點(diǎn)。與GNN領(lǐng)域的趨勢(shì)相似,注意力模型在超圖領(lǐng)域也日益普及。HCHA [38] 使用一種基于注意力的關(guān)聯(lián)矩陣,該矩陣基于節(jié)點(diǎn)與超邊的相似度計(jì)算得出。類似地,HERALD [39] 利用可學(xué)習(xí)的距離來推斷軟關(guān)聯(lián)矩陣。另一方面,HEAT [15] 通過使用Transformer [40] 在每個(gè)超邊內(nèi)部傳播信息來構(gòu)建消息。

      許多超圖神經(jīng)網(wǎng)絡(luò)(HNN)方法可被視為兩階段框架:1)將消息從節(jié)點(diǎn)發(fā)送至超邊;2)將消息從超邊傳回節(jié)點(diǎn)。因此,[41] 提出了一種通用框架,其中第一階段采用平均算子,而第二階段則可使用任何現(xiàn)有的GNN模塊。類似地,[42] 使用DeepSet函數(shù)[43]或Transformer[40]來實(shí)現(xiàn)這兩個(gè)階段,而[44] 在兩個(gè)階段均使用類GNN聚合器,并為每個(gè)(節(jié)點(diǎn),超邊)對(duì)分配不同的消息。

      相比之下,我們提出了一種新穎的模型,旨在通過將胞腔層附加到超圖結(jié)構(gòu)上,并依據(jù)該層在模型內(nèi)部擴(kuò)散信息,來改進(jìn)超圖處理。我們將首先介紹超圖的胞腔層,證明相關(guān)拉普拉斯算子的一些性質(zhì),隨后提出并評(píng)估基于層超圖拉普拉斯算子的兩種架構(gòu)。

      3 超圖層拉普拉斯算子




      之前的工作側(cè)重于通過依賴定義超圖拉普拉斯算子(Laplacian)的各種方法來創(chuàng)建超圖表示。在這項(xiàng)工作中,我們將專注于兩種定義:如文獻(xiàn) [11] 中使用的超圖拉普拉斯算子的線性版本,以及如文獻(xiàn) [37] 中的超圖拉普拉斯算子的非線性版本。我們將擴(kuò)展這兩種定義以融入超圖層結(jié)構(gòu),分析由此產(chǎn)生的優(yōu)勢(shì),并基于每一種定義提出兩種不同的神經(jīng)網(wǎng)絡(luò)架構(gòu)。關(guān)于兩種提出的層超圖拉普拉斯算子的直觀對(duì)比,請(qǐng)參見圖 1。


      3.1 線性層超圖拉普拉斯算子


      當(dāng)每個(gè)超邊恰好包含兩個(gè)節(jié)點(diǎn)時(shí)(因此 H H 是一個(gè)圖),內(nèi)部求和將只包含一項(xiàng),我們便恢復(fù)了如文獻(xiàn) [22] 中公式化的圖的層拉普拉斯算子(sheaf Laplacian)。


      在接下來的章節(jié)中,我們將展示使用這種層超圖擴(kuò)散代替通常的超圖擴(kuò)散的優(yōu)勢(shì)。


      直觀地說,這意味著使用 線性超圖拉普拉斯算子 應(yīng)用擴(kuò)散會(huì)導(dǎo)致相鄰節(jié)點(diǎn)的表示變得相似。雖然這在某些場(chǎng)景中是可取的,但在其他場(chǎng)景中可能會(huì)導(dǎo)致性能不佳,這種現(xiàn)象被稱為過平滑(over-smoothing)[17]。在下文中,我們展示了使用線性 層 超圖拉普拉斯算子應(yīng)用擴(kuò)散,通過隱式最小化一個(gè)更具表達(dá)力的能量函數(shù)來解決這些局限性。這使我們能夠建模使用通常的拉普拉斯算子無法觸及的現(xiàn)象。



      該量度量了超邊莖(stalk)域中相鄰節(jié)點(diǎn)之間的差異,而不同于通常的超圖狄利克雷能量,后者是在節(jié)點(diǎn)特征域中度量這種距離。在下文中,我們將證明,使用線性層拉普拉斯算子應(yīng)用超圖擴(kuò)散會(huì)隱式地降低該能量。




      3.2 非線性層超圖拉普拉斯算子

      盡管線性超圖拉普拉斯算子通常用于處理超圖,但它在完全保留超圖結(jié)構(gòu)方面存在不足[47]。為了解決這些缺點(diǎn),文獻(xiàn)[48]引入了非線性拉普拉斯算子,并證明其譜性質(zhì)與線性拉普拉斯算子相比更適用于高階處理。例如,與線性版本相比,非線性拉普拉斯算子在最小割問題中會(huì)產(chǎn)生更均衡的劃分,而該任務(wù)已知與半監(jiān)督節(jié)點(diǎn)分類密切相關(guān)。此外,雖然線性拉普拉斯算子為每個(gè)超邊關(guān)聯(lián)一個(gè)團(tuán)(clique),但非線性版本具有依賴更稀疏連通性的優(yōu)勢(shì)。我們將采用類似的方法來推導(dǎo)層超圖拉普拉斯算子的非線性版本,并分析使用該算子應(yīng)用擴(kuò)散的好處。

      定義 4. 我們?nèi)缦乱氤瑘D H 關(guān)于信號(hào) x 的非線性層超圖拉普拉斯算子:





      盡管被最小化的勢(shì)函數(shù)發(fā)生了變化,但總體目標(biāo)仍然與線性情況類似:力求在超邊莖空間內(nèi)的表示之間達(dá)成連貫的一致性,而不是在輸入空間中為每個(gè)超邊生成均勻的特征。與線性場(chǎng)景形成對(duì)比的是,在線性場(chǎng)景中每個(gè)超邊需要二次方數(shù)量的邊,而非線性層超圖拉普拉斯算子將單個(gè)邊與每個(gè)超邊相關(guān)聯(lián),從而提高了計(jì)算效率。

      3.3 層超圖網(wǎng)絡(luò)

      流行的超圖神經(jīng)網(wǎng)絡(luò) [45, 11, 37, 50] 從多種超圖擴(kuò)散算子 [47, 48, 51] 中汲取靈感,從而產(chǎn)生了多樣化的消息傳遞技術(shù)。這些技術(shù)都涉及信息從節(jié)點(diǎn)傳播到超邊,反之亦然。我們將采用類似的策略,并基于本文中討論的層擴(kuò)散機(jī)制所啟發(fā)的兩種消息傳遞方案,引入層超圖神經(jīng)網(wǎng)絡(luò)(Sheaf Hypergraph Neural Network)和層超圖卷積網(wǎng)絡(luò)(Sheaf Hypergraph Convolutional Network)。





      總之,本文介紹的模型,即 SheafHyperGNN 和 SheafHyperGCN,充當(dāng)了經(jīng)典 HyperGNN [11] 和 HyperGCN [37] 的推廣。與其傳統(tǒng)對(duì)應(yīng)物相比,這些新模型具有更具表達(dá)力的隱式正則化。





      4 實(shí)驗(yàn)分析

      我們?cè)诎藗€(gè)領(lǐng)域、規(guī)模和異配水平(heterophily level)各異且常用于超圖基準(zhǔn)測(cè)試的真實(shí)世界數(shù)據(jù)集上評(píng)估我們的模型。這些數(shù)據(jù)集包括 Cora, Citeseer, Pubmed, Cora-CA, DBLP-CA [37], House [52], Senate 和 Congress [53]。為了確保與基線方法的公平比較,我們遵循 [50] 中使用的相同訓(xùn)練流程,將數(shù)據(jù)隨機(jī)劃分為 50% 的訓(xùn)練樣本、25% 的驗(yàn)證樣本和 25% 的測(cè)試樣本,并使用不同的隨機(jī)劃分將每個(gè)模型運(yùn)行 10 次。我們報(bào)告平均準(zhǔn)確率以及標(biāo)準(zhǔn)差。

      此外,我們受 [50] 引入的數(shù)據(jù)集啟發(fā),在一組合成異配數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn)。遵循他們的方法,我們使用上下文超圖隨機(jī)塊模型(contextual hypergraph stochastic block model)[54–56] 生成一個(gè)包含 5000 個(gè)節(jié)點(diǎn)的超圖:其中一半屬于類別 0,另一半屬于類別 1。隨后,我們隨機(jī)采樣 1000 個(gè)基數(shù)(cardinality)為 15 的超邊,每個(gè)超邊恰好包含 β 個(gè)來自類別 0 的節(jié)點(diǎn)。異配水平計(jì)算為 α = min ? ( β , 15 ? β ) 。節(jié)點(diǎn)特征是從標(biāo)準(zhǔn)差為 1 的標(biāo)簽依賴高斯分布中采樣的。由于原始數(shù)據(jù)集未公開,我們通過改變異配水平 α ∈ { 1 … 7 } 生成我們自己的數(shù)據(jù)集,并重新運(yùn)行他們的實(shí)驗(yàn)以進(jìn)行公平比較。

      實(shí)驗(yàn)在單塊具有 48GB 顯存的 NVIDIA Quadro RTX 8000 GPU 上執(zhí)行。除非另有說明,我們的結(jié)果代表了每個(gè)架構(gòu)通過使用隨機(jī)搜索進(jìn)行超參數(shù)優(yōu)化所獲得的最佳性能。關(guān)于所有模型選擇和超參數(shù)的詳細(xì)信息可以在補(bǔ)充材料中找到。


      與近期方法的比較。 我們還將文獻(xiàn)中的幾種近期模型進(jìn)行了比較,例如 HCHA [38], HNHN [36], AllDeepSets [42], AllSetTransformer [42], UniGCNII [57], HyperND [58], 和 ED-HNN [50]。我們的模型在所有真實(shí)世界數(shù)據(jù)集上取得了具有競(jìng)爭(zhēng)力的結(jié)果,并在其中五個(gè)數(shù)據(jù)集上達(dá)到了最先進(jìn)的(state-of-the-art)性能(表 1)。這些結(jié)果證實(shí)了使用層拉普拉斯算子處理超圖的優(yōu)勢(shì)。我們還在合成異配數(shù)據(jù)集上將我們的模型與一系列基線進(jìn)行了比較。結(jié)果如表 3 所示。我們要表現(xiàn)最好的模型 SheafHyperGNN,在所有異配水平上始終優(yōu)于其他模型。請(qǐng)注意,我們要利用層結(jié)構(gòu)增強(qiáng)經(jīng)典超圖處理的框架并不局限于本文測(cè)試的兩種傳統(tǒng)模型(HyperGNN 和 HyperGCN)。大多數(shù)近期的最先進(jìn)方法,例如 ED-HNN,可以很容易地被調(diào)整以學(xué)習(xí)和處理我們要新穎的胞腔層超圖,而不是標(biāo)準(zhǔn)超圖,從而推動(dòng)超圖領(lǐng)域的進(jìn)一步發(fā)展。

      在接下來的章節(jié)中,我們進(jìn)行了一系列消融研究,以更深入地了解我們的模型。我們將探索各種類型的限制映射,分析網(wǎng)絡(luò)深度變化時(shí)性能如何變化,并研究莖維度對(duì)最終精度的重要性。



      深度的影響。 眾所周知,在超圖網(wǎng)絡(luò)中堆疊多層會(huì)導(dǎo)致模型性能下降,特別是在異配設(shè)置中。這種現(xiàn)象被稱為過平滑,在圖 [59] 和超圖文獻(xiàn) [17] 中都有深入研究。為了分析我們的模型受此限制的程度,我們?cè)诤铣蓴?shù)據(jù)集的最異配版本( α = 7 )上訓(xùn)練了一系列模型。對(duì)于 SheafHyperGNN 及其 HyperGNN 等效模型,我們將層數(shù)在 1 到 8 之間變化。在圖 2 中,我們觀察到雖然 HyperGNN 在超過 3 層時(shí)表現(xiàn)出性能下降,但 SheafHyperGNN 的性能保持基本恒定。在比較 SheafHyperGCN 與 HyperGCN 時(shí),非線性版本也觀察到了類似結(jié)果(結(jié)果在補(bǔ)充材料中)。這些結(jié)果表明我們的模型在異配設(shè)置中具有潛在優(yōu)勢(shì),允許構(gòu)建更深的架構(gòu)。

      調(diào)查特征多樣性。 我們的理論分析表明,雖然傳統(tǒng)超圖網(wǎng)絡(luò)傾向于為相鄰節(jié)點(diǎn)產(chǎn)生相似特征,但我們的層超圖網(wǎng)絡(luò)減少了更復(fù)雜的超邊莖空間中相鄰節(jié)點(diǎn)之間的距離。結(jié)果是,節(jié)點(diǎn)的特征不會(huì)變得統(tǒng)一,保留了它們的個(gè)體身份。我們通過計(jì)算 HyperGNN 和 SheafHyperGNN 的狄利克雷能量(圖 2 中的陰影區(qū)域)作為相鄰節(jié)點(diǎn)之間相似度的度量來經(jīng)驗(yàn)性地評(píng)估這一點(diǎn)。結(jié)果與理論分析一致:雖然增加 HyperGNN 的深度會(huì)創(chuàng)建均勻的特征,但 SheafHyperGNN 不受此限制的影響,鼓勵(lì)節(jié)點(diǎn)之間的多樣性。


      5 結(jié)論

      在本文中,我們引入了超圖的胞腔層,這是一種建立在經(jīng)典超圖結(jié)構(gòu)之上、用于建模高階關(guān)系的富有表達(dá)力的工具。此外,我們提出了兩個(gè)模型,分別基于線性和非線性層超圖拉普拉斯算子,能夠推斷并處理層超圖結(jié)構(gòu)。我們證明了與這些模型相關(guān)的擴(kuò)散過程誘導(dǎo)了一種更具表達(dá)力的隱式正則化,擴(kuò)展了與標(biāo)準(zhǔn)超圖擴(kuò)散相關(guān)的能量。這種新穎的架構(gòu)推廣了經(jīng)典超圖網(wǎng)絡(luò),且我們通過實(shí)驗(yàn)表明,它在多個(gè)數(shù)據(jù)集上優(yōu)于現(xiàn)有方法。我們?cè)?HyperGNN 和 HyperGCN 中用層超圖拉普拉斯算子替換超圖拉普拉斯算子的技術(shù),建立了一個(gè)通用的框架,可用于“層化”(sheafify)其他超圖架構(gòu)。我們相信,層超圖能夠?yàn)榭焖侔l(fā)展的超圖領(lǐng)域的進(jìn)一步進(jìn)步做出貢獻(xiàn),其影響將遠(yuǎn)遠(yuǎn)超出本文所呈現(xiàn)的結(jié)果。

      原文鏈接: https://arxiv.org/pdf/2309.17116

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關(guān)推薦
      熱點(diǎn)推薦
      布魯斯·威利斯30年前爛片逆襲,Netflix前十

      布魯斯·威利斯30年前爛片逆襲,Netflix前十

      時(shí)光慢旅人
      2026-05-18 01:38:00
      安理會(huì)重磅發(fā)聲!中方強(qiáng)硬亮劍:以色列必須無條件撤出

      安理會(huì)重磅發(fā)聲!中方強(qiáng)硬亮劍:以色列必須無條件撤出

      低調(diào)看天下
      2026-05-17 16:59:30
      全網(wǎng)都猜錯(cuò)了!張?zhí)m突然停更阿姨被臨時(shí)調(diào)休,真相是汪小菲的用心

      全網(wǎng)都猜錯(cuò)了!張?zhí)m突然停更阿姨被臨時(shí)調(diào)休,真相是汪小菲的用心

      阿廢冷眼觀察所
      2026-05-16 16:21:06
      林徽因落選的國徽方案,網(wǎng)友看后感嘆:審美確實(shí)厲害,但真不合適

      林徽因落選的國徽方案,網(wǎng)友看后感嘆:審美確實(shí)厲害,但真不合適

      浩渺青史
      2026-04-17 13:55:15
      賭王孫女不幸離世終年58歲!追思會(huì)內(nèi)部曝光,親友送別最后一程

      賭王孫女不幸離世終年58歲!追思會(huì)內(nèi)部曝光,親友送別最后一程

      喜歡歷史的阿繁
      2026-05-17 22:27:50
      耿同學(xué)扳倒多個(gè)學(xué)術(shù)大拿,本人背景曝光,他這么干的原因找到了

      耿同學(xué)扳倒多個(gè)學(xué)術(shù)大拿,本人背景曝光,他這么干的原因找到了

      平老師666
      2026-05-15 21:35:30
      中國為啥能迅速崛起,德國專家給出看法:中國沒覆蓋全民族的宗教

      中國為啥能迅速崛起,德國專家給出看法:中國沒覆蓋全民族的宗教

      抽象派大師
      2026-05-16 15:17:29
      為什么男人每次偷情要開房,女人每次偷情都在車?yán)锬兀?>
    </a>
        <h3>
      <a href=思絮
      2026-04-28 10:25:11
      玩嗨了!黃仁勛在大爺煙斗上簽名,庫克買咖啡,特朗普兒子游長(zhǎng)城

      玩嗨了!黃仁勛在大爺煙斗上簽名,庫克買咖啡,特朗普兒子游長(zhǎng)城

      青杉依舊啊啊
      2026-05-17 07:47:44
      多名院士調(diào)查發(fā)現(xiàn):吃一口久放至黑斑的香蕉,或等于進(jìn)一次毒?

      多名院士調(diào)查發(fā)現(xiàn):吃一口久放至黑斑的香蕉,或等于進(jìn)一次毒?

      路醫(yī)生健康科普
      2026-05-17 19:35:03
      慌了!知名化工平臺(tái)暴雷!十億元無法履約!1600家企業(yè)錢貨兩空!

      慌了!知名化工平臺(tái)暴雷!十億元無法履約!1600家企業(yè)錢貨兩空!

      新浪財(cái)經(jīng)
      2026-05-17 12:12:48
      網(wǎng)友說未來盡量別去夜場(chǎng),小仙女們要化債了!

      網(wǎng)友說未來盡量別去夜場(chǎng),小仙女們要化債了!

      燈錦年
      2026-05-16 14:42:03
      臺(tái)灣回歸終極方案:土地回歸中國,人員自由往來,兩岸統(tǒng)一新路徑

      臺(tái)灣回歸終極方案:土地回歸中國,人員自由往來,兩岸統(tǒng)一新路徑

      陳腕特色體育解說
      2026-05-17 21:12:19
      一個(gè)人認(rèn)知在不在你之上,看這4個(gè)細(xì)節(jié)就夠了

      一個(gè)人認(rèn)知在不在你之上,看這4個(gè)細(xì)節(jié)就夠了

      洞見
      2026-04-16 11:35:51
      炸了!溫州砸 23 億干大事,214 萬畝荒山變綠

      炸了!溫州砸 23 億干大事,214 萬畝荒山變綠

      奇葩游戲醬
      2026-05-18 03:26:37
      圖片報(bào):1860球迷惡搞拜仁奪冠慶典,被眼尖的諾伊爾先發(fā)現(xiàn)

      圖片報(bào):1860球迷惡搞拜仁奪冠慶典,被眼尖的諾伊爾先發(fā)現(xiàn)

      懂球帝
      2026-05-17 21:39:36
      35美元小配件,讓有線CarPlay變無線

      35美元小配件,讓有線CarPlay變無線

      賽博蘭博
      2026-05-17 03:15:05
      99%的女人出軌完男人后,都會(huì)默契地做出這3種行為,不信你看看

      99%的女人出軌完男人后,都會(huì)默契地做出這3種行為,不信你看看

      加油丁小文
      2026-05-03 08:30:16
      朱珠與老公上海南京西路街邊喝咖啡被偶遇,美的像拍偶像劇!

      朱珠與老公上海南京西路街邊喝咖啡被偶遇,美的像拍偶像劇!

      動(dòng)物奇奇怪怪
      2026-05-16 12:41:37
      俄烏打完后,俄國際地位會(huì)下降到何種地步?看俄羅斯周邊就知道!

      俄烏打完后,俄國際地位會(huì)下降到何種地步?看俄羅斯周邊就知道!

      忠于法紀(jì)
      2026-05-16 17:49:52
      2026-05-18 04:20:49
      CreateAMind incentive-icons
      CreateAMind
      CreateAMind.agi.top
      1407文章數(shù) 19關(guān)注度
      往期回顧 全部

      科技要聞

      三大運(yùn)營(yíng)商即將免月租?多方回應(yīng)

      頭條要聞

      內(nèi)塔尼亞胡與特朗普通話 討論重啟對(duì)伊朗軍事打擊

      頭條要聞

      內(nèi)塔尼亞胡與特朗普通話 討論重啟對(duì)伊朗軍事打擊

      體育要聞

      生死戰(zhàn)只拿3分的核心,還有留的必要嗎?

      娛樂要聞

      盧昱曉道歉:認(rèn)識(shí)到問題嚴(yán)重性!

      財(cái)經(jīng)要聞

      長(zhǎng)鑫科技 預(yù)計(jì)上半年凈利至少500億元

      汽車要聞

      車長(zhǎng)超5米/雙動(dòng)力可選 昊鉑S600預(yù)售權(quán)益價(jià)18.89萬起

      態(tài)度原創(chuàng)

      旅游
      藝術(shù)
      家居
      本地
      公開課

      旅游要聞

      陜西榆林靖邊波浪谷景區(qū),飲水機(jī)買了1萬多元:游客喝水要收費(fèi)

      藝術(shù)要聞

      特朗普回去第一條動(dòng)態(tài),猛夸人民大會(huì)堂:美國也得有!

      家居要聞

      110㎡淡而有致的生活表達(dá)

      本地新聞

      用蘇繡的方式,打開江西婺源

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進(jìn)入關(guān)懷版 主站蜘蛛池模板: 日韩偷拍一区二区| 一本无码人妻在中文字幕免费| 日韩亚洲国产主播在线不卡| 亚洲国产欧美日韩一区二区 | 香蕉乱码成人久久天堂爱| 337p日本欧洲亚洲大胆裸体艺术| 国产一区二区三区2021| 欧美成人精品第一区| 日本精品一区二区三区在线视频| 无码专区—va亚洲v天堂麻豆| 夜色阁亚洲一区二区三区| 免费无码又爽又刺激高潮的视频,| 欧美熟妇性xxxx交潮喷| 丰满高跟丝袜老熟女久久| 国产精品日本熟女| 国产人妻精品一区二区三区不卡| 福利久久| 香蕉伊思人视频| 性欧美老肥妇喷水| 又爽又黄又无遮掩的免费视频| 精品一卡2卡三卡4卡免费视频 | 欧美日韩在线一区二区| 人妻人人看人妻人人添| 99精品视频在线观看婷婷| 大战熟女丰满人妻av| 99zyz| 久久99精品久久久久久| 国产亚洲欧美日韩综合一区在线观看 | 国产清品夜色一区二区三区不卡| 2020精品国产福利在线观看香蕉| 日日躁狠狠躁狠狠爱| 最近免费中文字幕mv在线视频3 | 国产高清在线精品一区| 肉大捧一进一出免费视频| 久久久国产精品无码一区二区| 国产V片免费A片视频| 国产免费的野战视频| 国产自偷亚洲精品页35页| 欧美性黑人极品hd另类| 国产成人亚洲毛片| 久久99青青精品免费观看|