層超圖網(wǎng)絡(luò) Sheaf Hypergraph Networks
https://arxiv.org/pdf/2309.17116
![]()
摘要
高階關(guān)系在自然界中廣泛存在,眾多現(xiàn)象涉及超越簡(jiǎn)單成對(duì)連接的復(fù)雜交互。因此,高階處理領(lǐng)域的進(jìn)展能夠加速需要結(jié)構(gòu)化數(shù)據(jù)的各個(gè)領(lǐng)域的發(fā)展。當(dāng)前方法通常使用超圖來表示這些交互。我們通過為超圖引入胞腔層(cellular sheaves)來增強(qiáng)這種表示,這是一種數(shù)學(xué)構(gòu)造,它在保持傳統(tǒng)超圖局部高階連通性的同時(shí),為其添加了額外結(jié)構(gòu)。受文獻(xiàn)中現(xiàn)有拉普拉斯算子的啟發(fā),我們開發(fā)了兩種獨(dú)特的層超圖拉普拉斯算子公式:線性和非線性。我們的理論分析表明,將層(sheaves)融入超圖拉普拉斯算子中,比標(biāo)準(zhǔn)超圖擴(kuò)散提供了更具表達(dá)力的歸納偏置,從而為有效建模復(fù)雜數(shù)據(jù)結(jié)構(gòu)創(chuàng)造了一個(gè)強(qiáng)有力的工具。我們利用這些層超圖拉普拉斯算子設(shè)計(jì)了兩類模型:層超圖神經(jīng)網(wǎng)絡(luò)與層超圖卷積網(wǎng)絡(luò)。這些模型推廣了文獻(xiàn)中常見的經(jīng)典超圖網(wǎng)絡(luò)。通過大量實(shí)驗(yàn),我們證明了這種推廣顯著提升了性能,在多個(gè)用于超圖節(jié)點(diǎn)分類的基準(zhǔn)數(shù)據(jù)集上取得了頂尖結(jié)果。
1 引言
關(guān)系數(shù)據(jù)在現(xiàn)實(shí)場(chǎng)景中的普遍存在,促使基于圖的方法在眾多領(lǐng)域得到快速發(fā)展并廣泛應(yīng)用[1–4]。然而,圖的一個(gè)主要局限性在于其無法表示超越成對(duì)關(guān)系的交互。相比之下,現(xiàn)實(shí)世界中的交互往往是復(fù)雜且多層面的。有證據(jù)表明,高階關(guān)系經(jīng)常出現(xiàn)在神經(jīng)科學(xué)[5, 6]、化學(xué)[7]、環(huán)境科學(xué)[8, 9]和社交網(wǎng)絡(luò)[10]中。因此,學(xué)習(xí)強(qiáng)大且有意義的超圖表示已成為深度學(xué)習(xí)中一個(gè)充滿前景且快速發(fā)展的子領(lǐng)域[11–16]。然而,當(dāng)前基于超圖的模型難以有效捕捉高階關(guān)系。如[17]所述,傳統(tǒng)的超圖神經(jīng)網(wǎng)絡(luò)常常面臨過平滑問題。當(dāng)我們?cè)诔瑘D內(nèi)部傳播信息時(shí),節(jié)點(diǎn)的表示會(huì)在鄰域內(nèi)趨于一致。這種效應(yīng)阻礙了超圖模型捕捉局部高階細(xì)微特征的能力。
需要更強(qiáng)大、更靈活的數(shù)學(xué)構(gòu)造來更好地捕捉現(xiàn)實(shí)世界交互的復(fù)雜性。層(sheaves)為圖提供了一種合適的增強(qiáng)方式,能夠?qū)崿F(xiàn)更多樣化、更具表達(dá)力的表示。胞腔層[18]能夠?qū)?shù)據(jù)附加到圖上,其方法是為節(jié)點(diǎn)關(guān)聯(lián)向量空間,并配備一種沿邊傳遞信息的機(jī)制。這種方法允許更豐富的數(shù)據(jù)表示,并增強(qiáng)了建模復(fù)雜交互的能力。
出于對(duì)更具表達(dá)力結(jié)構(gòu)的需求,我們?yōu)槌瑘D引入了胞腔層,它允許表示更復(fù)雜的動(dòng)態(tài),同時(shí)保留超圖固有的高階連通性。我們迎接這一非平凡挑戰(zhàn),將兩種常用的超圖拉普拉斯算子[19, 11]進(jìn)行推廣,以融入層所提供的更豐富結(jié)構(gòu)。理論上,我們證明了使用我們提出的層超圖拉普拉斯算子推導(dǎo)出的擴(kuò)散過程,比經(jīng)典超圖擴(kuò)散誘導(dǎo)了更具表達(dá)力的歸納偏置。借助這種增強(qiáng)的歸納偏置,我們構(gòu)建并測(cè)試了兩個(gè)強(qiáng)大的神經(jīng)網(wǎng)絡(luò),它們能夠推斷和處理超圖層結(jié)構(gòu):層超圖神經(jīng)網(wǎng)絡(luò)(SheafHyperGNN)和層超圖卷積網(wǎng)絡(luò)(SheafHyperGCN)。
超圖胞腔層的引入擴(kuò)展了表示復(fù)雜交互的潛力,并為更先進(jìn)的技術(shù)奠定了基礎(chǔ)。通過利用層結(jié)構(gòu)推廣超圖拉普拉斯算子,我們能夠更好地捕捉現(xiàn)實(shí)世界數(shù)據(jù)的細(xì)微差別與復(fù)雜性。此外,我們的理論分析提供了證據(jù),表明層超圖拉普拉斯算子體現(xiàn)了更具表達(dá)力的歸納偏置,這對(duì)于獲得強(qiáng)大的表示至關(guān)重要。
我們的主要貢獻(xiàn)總結(jié)如下:
- 我們?yōu)槌瑘D引入了胞腔層,這是一種數(shù)學(xué)構(gòu)造,通過為每個(gè)節(jié)點(diǎn)和超邊關(guān)聯(lián)一個(gè)向量空間,并配備使它們之間能夠進(jìn)行信息傳遞的線性投影,從而為超圖增強(qiáng)了額外結(jié)構(gòu)。
- 我們提出了線性和非線性的層超圖拉普拉斯算子,推廣了文獻(xiàn)中常用的標(biāo)準(zhǔn)超圖拉普拉斯算子。我們還對(duì)這些拉普拉斯算子擴(kuò)散過程所產(chǎn)生的歸納偏置進(jìn)行了理論刻畫,展示了利用這些新穎工具有效建模復(fù)雜現(xiàn)象的優(yōu)勢(shì)。
- 這兩種層超圖拉普拉斯算子構(gòu)成了專為超圖處理設(shè)計(jì)的兩種新穎架構(gòu)的基礎(chǔ):層超圖神經(jīng)網(wǎng)絡(luò)和層超圖卷積網(wǎng)絡(luò)。實(shí)驗(yàn)結(jié)果表明,這些模型取得了頂尖性能,在眾多基準(zhǔn)數(shù)據(jù)集上超越了現(xiàn)有方法。
2 相關(guān)工作
圖上的層。 利用現(xiàn)實(shí)世界數(shù)據(jù)中的圖結(jié)構(gòu)已推動(dòng)醫(yī)療保健[1]、生物化學(xué)[2]、社交網(wǎng)絡(luò)[20]、推薦系統(tǒng)[3]、交通預(yù)測(cè)[21]等多個(gè)領(lǐng)域的進(jìn)步,圖神經(jīng)網(wǎng)絡(luò)(GNN)已成為圖表示的標(biāo)準(zhǔn)。然而,在異配設(shè)置中,當(dāng)具有不同標(biāo)簽的節(jié)點(diǎn)更有可能相連時(shí),直接處理圖結(jié)構(gòu)會(huì)導(dǎo)致性能不佳。文獻(xiàn)[22]通過以胞腔層[18]的形式為圖附加額外的幾何結(jié)構(gòu)來解決這一問題。
圖上的胞腔層為每個(gè)節(jié)點(diǎn)和每條邊關(guān)聯(lián)一個(gè)向量空間,并為每個(gè)關(guān)聯(lián)對(duì)提供這些空間之間的線性投影。為了考量這種更復(fù)雜的幾何結(jié)構(gòu),SheafNN [23] 通過將圖拉普拉斯算子替換為層拉普拉斯算子[27],對(duì)經(jīng)典GNN [24–26] 進(jìn)行了推廣。研究者探索了基于高維層的神經(jīng)網(wǎng)絡(luò),其中的層結(jié)構(gòu)要么從圖中學(xué)習(xí)得到[22],要么出于效率考慮進(jìn)行確定性推斷[28]。近期的方法集成了注意力機(jī)制[29],或用波動(dòng)方程替代了傳播過程[30]。在最新進(jìn)展中,層神經(jīng)網(wǎng)絡(luò)被發(fā)現(xiàn)能顯著提升推薦系統(tǒng)的性能,因?yàn)樗鼈兏倪M(jìn)了圖神經(jīng)網(wǎng)絡(luò)的局限性[31]。
在異構(gòu)圖領(lǐng)域,為不同類型的邊學(xué)習(xí)獨(dú)特消息傳遞函數(shù)的概念已十分成熟。然而,與RGCN [32]等異構(gòu)圖方法相比,基于層的方法在處理該任務(wù)的方式上存在區(qū)別。后者為每種關(guān)聯(lián)關(guān)系學(xué)習(xí)獨(dú)立的參數(shù),而基于層的方法則依賴于與節(jié)點(diǎn)和超邊相關(guān)的特征,動(dòng)態(tài)預(yù)測(cè)每種關(guān)系的投影。因此,層網(wǎng)絡(luò)中的參數(shù)總量不會(huì)隨著超邊數(shù)量的增加而急劇膨脹。這一差異凸顯了兩種方法在底層范式上的根本性轉(zhuǎn)變。
超圖網(wǎng)絡(luò)。 圖雖然有用,但有一個(gè)顯著的局限性:它們只能表示成對(duì)關(guān)系。許多自然現(xiàn)象涉及復(fù)雜的高階交互[33–35, 9],需要像超圖這樣更通用的結(jié)構(gòu)。近年來,針對(duì)超圖結(jié)構(gòu)已開發(fā)出多種深度學(xué)習(xí)方法。HyperGNN [11] 將超圖擴(kuò)展為加權(quán)團(tuán),并應(yīng)用類似于GCN [24] 的消息傳遞。HNHN [36] 通過引入非線性操作對(duì)此進(jìn)行了改進(jìn),而HyperGCN [37] 則使用非線性拉普拉斯算子僅連接差異最顯著的節(jié)點(diǎn)。與GNN領(lǐng)域的趨勢(shì)相似,注意力模型在超圖領(lǐng)域也日益普及。HCHA [38] 使用一種基于注意力的關(guān)聯(lián)矩陣,該矩陣基于節(jié)點(diǎn)與超邊的相似度計(jì)算得出。類似地,HERALD [39] 利用可學(xué)習(xí)的距離來推斷軟關(guān)聯(lián)矩陣。另一方面,HEAT [15] 通過使用Transformer [40] 在每個(gè)超邊內(nèi)部傳播信息來構(gòu)建消息。
許多超圖神經(jīng)網(wǎng)絡(luò)(HNN)方法可被視為兩階段框架:1)將消息從節(jié)點(diǎn)發(fā)送至超邊;2)將消息從超邊傳回節(jié)點(diǎn)。因此,[41] 提出了一種通用框架,其中第一階段采用平均算子,而第二階段則可使用任何現(xiàn)有的GNN模塊。類似地,[42] 使用DeepSet函數(shù)[43]或Transformer[40]來實(shí)現(xiàn)這兩個(gè)階段,而[44] 在兩個(gè)階段均使用類GNN聚合器,并為每個(gè)(節(jié)點(diǎn),超邊)對(duì)分配不同的消息。
相比之下,我們提出了一種新穎的模型,旨在通過將胞腔層附加到超圖結(jié)構(gòu)上,并依據(jù)該層在模型內(nèi)部擴(kuò)散信息,來改進(jìn)超圖處理。我們將首先介紹超圖的胞腔層,證明相關(guān)拉普拉斯算子的一些性質(zhì),隨后提出并評(píng)估基于層超圖拉普拉斯算子的兩種架構(gòu)。
3 超圖層拉普拉斯算子
![]()
![]()
![]()
之前的工作側(cè)重于通過依賴定義超圖拉普拉斯算子(Laplacian)的各種方法來創(chuàng)建超圖表示。在這項(xiàng)工作中,我們將專注于兩種定義:如文獻(xiàn) [11] 中使用的超圖拉普拉斯算子的線性版本,以及如文獻(xiàn) [37] 中的超圖拉普拉斯算子的非線性版本。我們將擴(kuò)展這兩種定義以融入超圖層結(jié)構(gòu),分析由此產(chǎn)生的優(yōu)勢(shì),并基于每一種定義提出兩種不同的神經(jīng)網(wǎng)絡(luò)架構(gòu)。關(guān)于兩種提出的層超圖拉普拉斯算子的直觀對(duì)比,請(qǐng)參見圖 1。
![]()
3.1 線性層超圖拉普拉斯算子
![]()
當(dāng)每個(gè)超邊恰好包含兩個(gè)節(jié)點(diǎn)時(shí)(因此 H H 是一個(gè)圖),內(nèi)部求和將只包含一項(xiàng),我們便恢復(fù)了如文獻(xiàn) [22] 中公式化的圖的層拉普拉斯算子(sheaf Laplacian)。
![]()
在接下來的章節(jié)中,我們將展示使用這種層超圖擴(kuò)散代替通常的超圖擴(kuò)散的優(yōu)勢(shì)。
![]()
直觀地說,這意味著使用 線性超圖拉普拉斯算子 應(yīng)用擴(kuò)散會(huì)導(dǎo)致相鄰節(jié)點(diǎn)的表示變得相似。雖然這在某些場(chǎng)景中是可取的,但在其他場(chǎng)景中可能會(huì)導(dǎo)致性能不佳,這種現(xiàn)象被稱為過平滑(over-smoothing)[17]。在下文中,我們展示了使用線性 層 超圖拉普拉斯算子應(yīng)用擴(kuò)散,通過隱式最小化一個(gè)更具表達(dá)力的能量函數(shù)來解決這些局限性。這使我們能夠建模使用通常的拉普拉斯算子無法觸及的現(xiàn)象。
![]()
![]()
該量度量了超邊莖(stalk)域中相鄰節(jié)點(diǎn)之間的差異,而不同于通常的超圖狄利克雷能量,后者是在節(jié)點(diǎn)特征域中度量這種距離。在下文中,我們將證明,使用線性層拉普拉斯算子應(yīng)用超圖擴(kuò)散會(huì)隱式地降低該能量。
![]()
![]()
![]()
3.2 非線性層超圖拉普拉斯算子
盡管線性超圖拉普拉斯算子通常用于處理超圖,但它在完全保留超圖結(jié)構(gòu)方面存在不足[47]。為了解決這些缺點(diǎn),文獻(xiàn)[48]引入了非線性拉普拉斯算子,并證明其譜性質(zhì)與線性拉普拉斯算子相比更適用于高階處理。例如,與線性版本相比,非線性拉普拉斯算子在最小割問題中會(huì)產(chǎn)生更均衡的劃分,而該任務(wù)已知與半監(jiān)督節(jié)點(diǎn)分類密切相關(guān)。此外,雖然線性拉普拉斯算子為每個(gè)超邊關(guān)聯(lián)一個(gè)團(tuán)(clique),但非線性版本具有依賴更稀疏連通性的優(yōu)勢(shì)。我們將采用類似的方法來推導(dǎo)層超圖拉普拉斯算子的非線性版本,并分析使用該算子應(yīng)用擴(kuò)散的好處。
定義 4. 我們?nèi)缦乱氤瑘D H 關(guān)于信號(hào) x 的非線性層超圖拉普拉斯算子:
![]()
![]()
![]()
![]()
盡管被最小化的勢(shì)函數(shù)發(fā)生了變化,但總體目標(biāo)仍然與線性情況類似:力求在超邊莖空間內(nèi)的表示之間達(dá)成連貫的一致性,而不是在輸入空間中為每個(gè)超邊生成均勻的特征。與線性場(chǎng)景形成對(duì)比的是,在線性場(chǎng)景中每個(gè)超邊需要二次方數(shù)量的邊,而非線性層超圖拉普拉斯算子將單個(gè)邊與每個(gè)超邊相關(guān)聯(lián),從而提高了計(jì)算效率。
3.3 層超圖網(wǎng)絡(luò)
流行的超圖神經(jīng)網(wǎng)絡(luò) [45, 11, 37, 50] 從多種超圖擴(kuò)散算子 [47, 48, 51] 中汲取靈感,從而產(chǎn)生了多樣化的消息傳遞技術(shù)。這些技術(shù)都涉及信息從節(jié)點(diǎn)傳播到超邊,反之亦然。我們將采用類似的策略,并基于本文中討論的層擴(kuò)散機(jī)制所啟發(fā)的兩種消息傳遞方案,引入層超圖神經(jīng)網(wǎng)絡(luò)(Sheaf Hypergraph Neural Network)和層超圖卷積網(wǎng)絡(luò)(Sheaf Hypergraph Convolutional Network)。
![]()
![]()
![]()
![]()
總之,本文介紹的模型,即 SheafHyperGNN 和 SheafHyperGCN,充當(dāng)了經(jīng)典 HyperGNN [11] 和 HyperGCN [37] 的推廣。與其傳統(tǒng)對(duì)應(yīng)物相比,這些新模型具有更具表達(dá)力的隱式正則化。
![]()
![]()
![]()
![]()
4 實(shí)驗(yàn)分析
我們?cè)诎藗€(gè)領(lǐng)域、規(guī)模和異配水平(heterophily level)各異且常用于超圖基準(zhǔn)測(cè)試的真實(shí)世界數(shù)據(jù)集上評(píng)估我們的模型。這些數(shù)據(jù)集包括 Cora, Citeseer, Pubmed, Cora-CA, DBLP-CA [37], House [52], Senate 和 Congress [53]。為了確保與基線方法的公平比較,我們遵循 [50] 中使用的相同訓(xùn)練流程,將數(shù)據(jù)隨機(jī)劃分為 50% 的訓(xùn)練樣本、25% 的驗(yàn)證樣本和 25% 的測(cè)試樣本,并使用不同的隨機(jī)劃分將每個(gè)模型運(yùn)行 10 次。我們報(bào)告平均準(zhǔn)確率以及標(biāo)準(zhǔn)差。
此外,我們受 [50] 引入的數(shù)據(jù)集啟發(fā),在一組合成異配數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn)。遵循他們的方法,我們使用上下文超圖隨機(jī)塊模型(contextual hypergraph stochastic block model)[54–56] 生成一個(gè)包含 5000 個(gè)節(jié)點(diǎn)的超圖:其中一半屬于類別 0,另一半屬于類別 1。隨后,我們隨機(jī)采樣 1000 個(gè)基數(shù)(cardinality)為 15 的超邊,每個(gè)超邊恰好包含 β 個(gè)來自類別 0 的節(jié)點(diǎn)。異配水平計(jì)算為 α = min ? ( β , 15 ? β ) 。節(jié)點(diǎn)特征是從標(biāo)準(zhǔn)差為 1 的標(biāo)簽依賴高斯分布中采樣的。由于原始數(shù)據(jù)集未公開,我們通過改變異配水平 α ∈ { 1 … 7 } 生成我們自己的數(shù)據(jù)集,并重新運(yùn)行他們的實(shí)驗(yàn)以進(jìn)行公平比較。
實(shí)驗(yàn)在單塊具有 48GB 顯存的 NVIDIA Quadro RTX 8000 GPU 上執(zhí)行。除非另有說明,我們的結(jié)果代表了每個(gè)架構(gòu)通過使用隨機(jī)搜索進(jìn)行超參數(shù)優(yōu)化所獲得的最佳性能。關(guān)于所有模型選擇和超參數(shù)的詳細(xì)信息可以在補(bǔ)充材料中找到。
![]()
與近期方法的比較。 我們還將文獻(xiàn)中的幾種近期模型進(jìn)行了比較,例如 HCHA [38], HNHN [36], AllDeepSets [42], AllSetTransformer [42], UniGCNII [57], HyperND [58], 和 ED-HNN [50]。我們的模型在所有真實(shí)世界數(shù)據(jù)集上取得了具有競(jìng)爭(zhēng)力的結(jié)果,并在其中五個(gè)數(shù)據(jù)集上達(dá)到了最先進(jìn)的(state-of-the-art)性能(表 1)。這些結(jié)果證實(shí)了使用層拉普拉斯算子處理超圖的優(yōu)勢(shì)。我們還在合成異配數(shù)據(jù)集上將我們的模型與一系列基線進(jìn)行了比較。結(jié)果如表 3 所示。我們要表現(xiàn)最好的模型 SheafHyperGNN,在所有異配水平上始終優(yōu)于其他模型。請(qǐng)注意,我們要利用層結(jié)構(gòu)增強(qiáng)經(jīng)典超圖處理的框架并不局限于本文測(cè)試的兩種傳統(tǒng)模型(HyperGNN 和 HyperGCN)。大多數(shù)近期的最先進(jìn)方法,例如 ED-HNN,可以很容易地被調(diào)整以學(xué)習(xí)和處理我們要新穎的胞腔層超圖,而不是標(biāo)準(zhǔn)超圖,從而推動(dòng)超圖領(lǐng)域的進(jìn)一步發(fā)展。
在接下來的章節(jié)中,我們進(jìn)行了一系列消融研究,以更深入地了解我們的模型。我們將探索各種類型的限制映射,分析網(wǎng)絡(luò)深度變化時(shí)性能如何變化,并研究莖維度對(duì)最終精度的重要性。
![]()
![]()
深度的影響。 眾所周知,在超圖網(wǎng)絡(luò)中堆疊多層會(huì)導(dǎo)致模型性能下降,特別是在異配設(shè)置中。這種現(xiàn)象被稱為過平滑,在圖 [59] 和超圖文獻(xiàn) [17] 中都有深入研究。為了分析我們的模型受此限制的程度,我們?cè)诤铣蓴?shù)據(jù)集的最異配版本( α = 7 )上訓(xùn)練了一系列模型。對(duì)于 SheafHyperGNN 及其 HyperGNN 等效模型,我們將層數(shù)在 1 到 8 之間變化。在圖 2 中,我們觀察到雖然 HyperGNN 在超過 3 層時(shí)表現(xiàn)出性能下降,但 SheafHyperGNN 的性能保持基本恒定。在比較 SheafHyperGCN 與 HyperGCN 時(shí),非線性版本也觀察到了類似結(jié)果(結(jié)果在補(bǔ)充材料中)。這些結(jié)果表明我們的模型在異配設(shè)置中具有潛在優(yōu)勢(shì),允許構(gòu)建更深的架構(gòu)。
調(diào)查特征多樣性。 我們的理論分析表明,雖然傳統(tǒng)超圖網(wǎng)絡(luò)傾向于為相鄰節(jié)點(diǎn)產(chǎn)生相似特征,但我們的層超圖網(wǎng)絡(luò)減少了更復(fù)雜的超邊莖空間中相鄰節(jié)點(diǎn)之間的距離。結(jié)果是,節(jié)點(diǎn)的特征不會(huì)變得統(tǒng)一,保留了它們的個(gè)體身份。我們通過計(jì)算 HyperGNN 和 SheafHyperGNN 的狄利克雷能量(圖 2 中的陰影區(qū)域)作為相鄰節(jié)點(diǎn)之間相似度的度量來經(jīng)驗(yàn)性地評(píng)估這一點(diǎn)。結(jié)果與理論分析一致:雖然增加 HyperGNN 的深度會(huì)創(chuàng)建均勻的特征,但 SheafHyperGNN 不受此限制的影響,鼓勵(lì)節(jié)點(diǎn)之間的多樣性。
![]()
5 結(jié)論
在本文中,我們引入了超圖的胞腔層,這是一種建立在經(jīng)典超圖結(jié)構(gòu)之上、用于建模高階關(guān)系的富有表達(dá)力的工具。此外,我們提出了兩個(gè)模型,分別基于線性和非線性層超圖拉普拉斯算子,能夠推斷并處理層超圖結(jié)構(gòu)。我們證明了與這些模型相關(guān)的擴(kuò)散過程誘導(dǎo)了一種更具表達(dá)力的隱式正則化,擴(kuò)展了與標(biāo)準(zhǔn)超圖擴(kuò)散相關(guān)的能量。這種新穎的架構(gòu)推廣了經(jīng)典超圖網(wǎng)絡(luò),且我們通過實(shí)驗(yàn)表明,它在多個(gè)數(shù)據(jù)集上優(yōu)于現(xiàn)有方法。我們?cè)?HyperGNN 和 HyperGCN 中用層超圖拉普拉斯算子替換超圖拉普拉斯算子的技術(shù),建立了一個(gè)通用的框架,可用于“層化”(sheafify)其他超圖架構(gòu)。我們相信,層超圖能夠?yàn)榭焖侔l(fā)展的超圖領(lǐng)域的進(jìn)一步進(jìn)步做出貢獻(xiàn),其影響將遠(yuǎn)遠(yuǎn)超出本文所呈現(xiàn)的結(jié)果。
原文鏈接: https://arxiv.org/pdf/2309.17116
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.