信息技術(shù) 神經(jīng)網(wǎng)絡(luò)表示與模型壓縮 第3部分:圖神經(jīng)網(wǎng)絡(luò) 征求意見稿_第1頁(yè)
信息技術(shù) 神經(jīng)網(wǎng)絡(luò)表示與模型壓縮 第3部分:圖神經(jīng)網(wǎng)絡(luò) 征求意見稿_第2頁(yè)
信息技術(shù) 神經(jīng)網(wǎng)絡(luò)表示與模型壓縮 第3部分:圖神經(jīng)網(wǎng)絡(luò) 征求意見稿_第3頁(yè)
信息技術(shù) 神經(jīng)網(wǎng)絡(luò)表示與模型壓縮 第3部分:圖神經(jīng)網(wǎng)絡(luò) 征求意見稿_第4頁(yè)
信息技術(shù) 神經(jīng)網(wǎng)絡(luò)表示與模型壓縮 第3部分:圖神經(jīng)網(wǎng)絡(luò) 征求意見稿_第5頁(yè)
已閱讀5頁(yè),還剩353頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1GB/T42382.3—XXXX信息技術(shù)神經(jīng)網(wǎng)絡(luò)表示與模型壓縮第3部分:圖神經(jīng)網(wǎng)絡(luò)本文件規(guī)定了適應(yīng)多種計(jì)算要求的高效圖神經(jīng)網(wǎng)絡(luò)模型的基本表示方法與壓縮加速過程。本文件適用于各種圖神經(jīng)網(wǎng)絡(luò)模型的研制、開發(fā)、測(cè)試評(píng)估過程,以及在端云領(lǐng)域的高效應(yīng)用。注:對(duì)于本文件規(guī)定的表示與模型壓縮方法不要求機(jī)器學(xué)習(xí)框架原生支持,可以通過轉(zhuǎn)2規(guī)范性引用文件下列文件中的內(nèi)容通過文中的規(guī)范性引用而構(gòu)成本文件必不可少的條款。其中,注日期的引用文件,僅注日期對(duì)應(yīng)的版本適用于本文件;不注日期的引用文件,其最新版本(包括所有的修改單)適用于本文件。GB/T5271.34-2006信息技術(shù)詞匯第34部分:人工智能神經(jīng)網(wǎng)絡(luò)GB/T42382.1-2023信息技術(shù)神經(jīng)網(wǎng)絡(luò)表示與模型壓縮第1部分:卷積神經(jīng)網(wǎng)絡(luò)3術(shù)語和定義下列術(shù)語和定義適用于本文件。3.1圖神經(jīng)網(wǎng)絡(luò)graphneuralnetwork用于處理由圖數(shù)據(jù)結(jié)構(gòu)表示數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。3.2模型model對(duì)應(yīng)完成單個(gè)或多個(gè)任務(wù)的神經(jīng)網(wǎng)絡(luò)。3.3層layer神經(jīng)網(wǎng)絡(luò)中的分級(jí)結(jié)構(gòu)。[來源:GB/T42382.1-2023]3.4權(quán)重weight不同單元之間的連接強(qiáng)度。[來源:GB/T42382.1-2023]3.5圖graph一個(gè)三元組,包含節(jié)點(diǎn)集、邊集、關(guān)聯(lián)函數(shù)。3.6節(jié)點(diǎn)node圖結(jié)構(gòu)數(shù)據(jù)中的一個(gè)實(shí)體或?qū)ο?,可以包含?shù)據(jù),例如標(biāo)簽、權(quán)重或其他屬性。3.7邊edge2GB/T42382.3—XXXX圖結(jié)構(gòu)數(shù)據(jù)中連接兩個(gè)節(jié)點(diǎn)的線段,代表節(jié)點(diǎn)之間的關(guān)系或連接。3.8特征feature數(shù)據(jù)集、神經(jīng)網(wǎng)絡(luò)計(jì)算過程中,數(shù)據(jù)的屬性向量。3.9圖基本運(yùn)算graphfundamentaloperation對(duì)圖結(jié)構(gòu)信息的基本運(yùn)算,例如求解節(jié)點(diǎn)的度等。3.10圖基本任務(wù)graphfundamentaltask基于圖數(shù)據(jù)實(shí)現(xiàn)某種功能,例如節(jié)點(diǎn)分類、鏈路預(yù)測(cè)、圖分類任務(wù)等。3.11基礎(chǔ)算子basicoperator應(yīng)用在圖神經(jīng)網(wǎng)絡(luò)模型上的基本運(yùn)算操作定義。3.12點(diǎn)級(jí)模型node-leveltaskmodel應(yīng)用于節(jié)點(diǎn)級(jí)任務(wù)的圖神經(jīng)網(wǎng)絡(luò)模型。3.13邊級(jí)模型edge-leveltaskmodel應(yīng)用于邊級(jí)任務(wù)的圖神經(jīng)網(wǎng)絡(luò)模型。3.14圖級(jí)模型graph-leveltaskmodel應(yīng)用于圖級(jí)任務(wù)的圖神經(jīng)網(wǎng)絡(luò)模型。3.15模型加速modelacceleration降低神經(jīng)網(wǎng)絡(luò)模型推理時(shí)間,提高圖神經(jīng)網(wǎng)絡(luò)模型運(yùn)行和傳輸效率的方法。3.16模型壓縮modelcompression減小神經(jīng)網(wǎng)絡(luò)模型規(guī)模,提高神經(jīng)網(wǎng)絡(luò)模型運(yùn)行和傳輸效率的方法。3.17采樣sampling指用部分圖數(shù)據(jù)或圖特征來代替完整圖數(shù)據(jù)或圖特征的方法。3.18量化quantization將輸入值從一個(gè)大集合映射到一個(gè)較小集合的過程。3.19剪枝pruning將深度學(xué)習(xí)模型去掉一些影響性能較小的單元的方法。3.20結(jié)構(gòu)化矩陣structuredmatrix一類特殊的矩陣,可以通過使用較少的數(shù)據(jù)以及一定的排列規(guī)律,構(gòu)成完整的矩陣3.21分塊結(jié)構(gòu)化矩陣blockstructuredmatrix指可以分為多個(gè)塊,且每個(gè)分塊均按照某種規(guī)律排列的矩陣。[來源:GB/T42382.1-2023]3.22隨機(jī)游走randomwalk遍歷圖中節(jié)點(diǎn)的方式,通過隨機(jī)選擇節(jié)點(diǎn)的相鄰節(jié)點(diǎn)來生成節(jié)點(diǎn)序列,以捕捉圖信息并用于圖的表示學(xué)習(xí)。3.233GB/T42382.3—XXXX點(diǎn)采樣器nodesampler根據(jù)起始節(jié)點(diǎn),對(duì)輸入的圖數(shù)據(jù)進(jìn)行采樣的采樣器。3.24層采樣器layersampler根據(jù)起始節(jié)點(diǎn),對(duì)輸入的圖數(shù)據(jù)進(jìn)行層級(jí)采樣的采樣器。3.25子圖采樣器subgraphsampler根據(jù)輸入圖數(shù)據(jù)進(jìn)行子圖采樣的采樣器。4縮略語下列縮略語適用于本文件。MLP:多層感知機(jī)(MultilayerPerceptron)GNN:圖神經(jīng)網(wǎng)絡(luò)(GraphNeuralNetwork)GCN:圖卷積網(wǎng)絡(luò)(GraphConvolutionalNetworks)GAT:圖注意力網(wǎng)絡(luò)(GraphAttentionNetworks)GraphSAGE:圖采樣與圖聚合(GraphSampleandAggregation)GIN:圖同構(gòu)網(wǎng)絡(luò)(GraphIsomorphismNetwork)GGNN:門控圖神經(jīng)網(wǎng)絡(luò)(GatedGraphNeuralNetwork)LSTM:長(zhǎng)短期記憶網(wǎng)絡(luò)(LongShortTermMemory)ResGatedgraph:殘差門控圖神經(jīng)網(wǎng)絡(luò)(ResidualGatedGraphNeuralNetwork)GINE:帶邊特征的圖同構(gòu)網(wǎng)絡(luò)(GraphIsomorphismNetworkwithEdgefeatures)GaAN:圖注意力網(wǎng)絡(luò)(GraphAttentionNetwork)AM-GCN:自適應(yīng)多通道圖卷積網(wǎng)絡(luò)(AdaptiveMulti-channelGraphConvolutionalNetwork)FAGCN:頻率自適應(yīng)圖卷積網(wǎng)絡(luò)(FrequencyAdaptationGraphConvolutionalNetworks)GeomGCN:幾何圖卷積網(wǎng)絡(luò)(GeometricGraphConvolutionalNetworks)HGAT:異質(zhì)圖注意力網(wǎng)絡(luò)(HeterogeneousGraphAttentionNetwork)GCNII:簡(jiǎn)單深度圖卷積網(wǎng)絡(luò)(SimpleandDeepGraphConvolutionalNetworks)SGC:簡(jiǎn)化圖卷積網(wǎng)絡(luò)(SimpleGraphConvolution)APPNP:近似個(gè)性化神經(jīng)預(yù)測(cè)傳播(ApproximatePersonalizedPropagationofNeuralPredictions)GPRGNN:廣義網(wǎng)頁(yè)排名圖神經(jīng)網(wǎng)絡(luò)(GeneralizedPageRankGraphNeuralNetwork)ChebNet:切比雪夫譜圖卷積網(wǎng)絡(luò)(ChebyshevSpectralGraphConvolutionalNetwork)JKnet:跳躍知識(shí)網(wǎng)絡(luò)(JumpingKnowledgeNetworks)DCNN:深度卷積神經(jīng)網(wǎng)絡(luò)(DeepConvolutionalNeuralNetworks)Line:大規(guī)模信息網(wǎng)絡(luò)嵌入(Large-scaleInformationNetworkEmbedding)HPN:異質(zhì)圖傳播網(wǎng)絡(luò)(HeterogeneousGraphPropagationNetwork)GAMLP:圖注意力多層感知器(GraphAttentionMulti-LayerPerceptron)GNN-LF/HF:低頻/高頻圖神經(jīng)網(wǎng)絡(luò)(GraphNeuralNetworkwithLowFrequency/HighFrequency)HeCo:具有協(xié)同對(duì)比學(xué)習(xí)的自監(jiān)督異質(zhì)圖神經(jīng)網(wǎng)絡(luò)(Self-SupervisedHeterogeneousGraphNeuralNetworkwithCo-ContrastiveLearning)HACUD:基于屬性異質(zhì)信息網(wǎng)絡(luò)和分層注意機(jī)制的套現(xiàn)用戶檢測(cè)模型(Cash-OutUserDetectionbasedonAttributedHeterogeneousInformationNetworkwithaHierarchicalAttentionMechanism)GTN:圖轉(zhuǎn)換器(以下簡(jiǎn)稱“transformer”)網(wǎng)絡(luò)(GraphTransformerNetwork)SAT:簡(jiǎn)單實(shí)例自適應(yīng)自訓(xùn)練半監(jiān)督文本分類(ImprovingSemi-SupervisedTextClassificationwithSimpleInstance-AdaptiveSelf-Training)GraphGPS:基于圖的漸進(jìn)式傳播與搜索(Graph-basedProgressivePropagationandSearching)GloGNN:全局節(jié)點(diǎn)信息圖神經(jīng)網(wǎng)絡(luò)(GraphNeuralNetworkwithGlobalInformation)R-GCN:關(guān)系圖卷積網(wǎng)絡(luò)(RelationalGraphConvolutionalNetwork)4GB/T42382.3—XXXXHIN:異質(zhì)信息網(wǎng)絡(luò)(HeterogeneousInformationNetwork)BERT:雙向編碼器表征法(BidirectionalEncoderRepresentationsfromTransformers)MCCF:多組件圖卷積協(xié)同過濾模型(Multi-ComponentGraphConvolutionalCollaborativeFiltering)MEIRec:用于意圖推薦的元路徑引導(dǎo)嵌入方法(Metapath-guidedEmbeddingmethodforIntentRecommendation)HERec:基于異質(zhì)網(wǎng)絡(luò)嵌入的推薦方法(HeterogeneousInformationNetworkEmbeddingforRecommendation)SEAL:從子圖、嵌入和屬性學(xué)習(xí)進(jìn)行鏈接預(yù)測(cè)(LearningfromSubgraphs,EmbeddingsandAttributesforLinkPrediction)GraIL:圖歸納學(xué)習(xí)(GraphInductiveLearning)NBFNet:神經(jīng)貝爾曼-福特網(wǎng)絡(luò)(NeuralBellman-FordNetwork)PAGNN:路徑感知圖神經(jīng)網(wǎng)絡(luò)(Path-awareGraphNeuralNetwork)Cluster-GCN:聚類圖卷積網(wǎng)絡(luò)(Cluster-GraphConvolutionNetwork)VQ-GNN:矢量量化圖神經(jīng)網(wǎng)絡(luò)(VectorQuantization-GraphNeuralNetwork)LADIES:層相關(guān)重要性采樣(Layer-DependentImportanceSampling)HGT:異質(zhì)圖轉(zhuǎn)換器(HeterogeneousGraphTransformer)GraphSaint:基于圖采樣的歸納學(xué)習(xí)(GraphSamplingBasedInductiveLearning)EXACT:極限激活壓縮(ScalableGraphNeuralNetworksTrainingviaExtremeActivationCompression)SGC:簡(jiǎn)單圖卷積網(wǎng)絡(luò)(SimplifyingGraphConvolutionalNetworks)PPNP:基于個(gè)性化PageRank算法的圖神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)與傳播(PredictthenPropagate:GraphNeuralNetworksmeetPersonalizedPageRank)LSP:局部敏感剪枝(Locality-SensitivePruning)LTD:元蒸餾(LearningtoDistill)GRACED:基于自定義知識(shí)蒸餾的圖增強(qiáng)多層感知機(jī)(GraphAugmentedMLPsviaCustomizedKnowledgeDistillation)ROD:接收感知在線蒸餾(Reception-awareOnlineDistillationforSparseGraphs)GNN-SD:圖神經(jīng)網(wǎng)絡(luò)自蒸餾(GNNSelf-Distillation)IGSD:迭代圖自蒸餾(IterativeGraphSelf-Distillation)Node2Vec:一種學(xué)習(xí)網(wǎng)絡(luò)中節(jié)點(diǎn)連續(xù)特征表示的算法框架(NodetoVector)DiffPool:可微圖池化(DifferentiableGraphPooling)MPSN:動(dòng)作感知偽暹羅網(wǎng)絡(luò)(Motion-awarePseudoSiameseNetwork)MPNN:消息傳遞圖神經(jīng)網(wǎng)絡(luò)(MessagePassingNeuralNetworks)D-MPNN:有向消息傳遞神經(jīng)網(wǎng)絡(luò)(DirectedMessagePassingNeuralNetworks)DmoN:深度模塊化網(wǎng)絡(luò)(DeepModularityNetworks)GMN:圖匹配網(wǎng)絡(luò)(GraphMatchingNetworks)FGNN:因子圖神經(jīng)網(wǎng)絡(luò)(FactorGraphNeuralNetwork)molGAN:分子生成對(duì)抗網(wǎng)絡(luò)(MolecularGenerativeAdversarialNetwork)GRAN:圖循環(huán)注意網(wǎng)絡(luò)(GraphRecurrentAttentionNetworks)BNS:邊界節(jié)點(diǎn)采樣(BoundaryNodeSampling)SSP:失效同步并行(StaleSynchronousParallel)KNN:K最近鄰(KNearestNeighbour)5圖神經(jīng)網(wǎng)絡(luò)表示與模型壓縮概述圖神經(jīng)網(wǎng)絡(luò)表示和模型壓縮包括圖神經(jīng)網(wǎng)絡(luò)的表示格式、圖神經(jīng)網(wǎng)絡(luò)壓縮和加速方法,旨在提高圖神經(jīng)網(wǎng)絡(luò)模型在各類設(shè)備上的開發(fā)與運(yùn)行效率,以及圖神經(jīng)網(wǎng)絡(luò)計(jì)算框架,總體架構(gòu)如圖1所示。5GB/T42382.3—XXXX圖1圖神經(jīng)網(wǎng)絡(luò)表示與模型壓縮總體架構(gòu)總體架構(gòu)包括以下三個(gè)部分:a)圖神經(jīng)網(wǎng)絡(luò)表示:規(guī)范了圖神經(jīng)網(wǎng)絡(luò)的表示方法,包括圖數(shù)據(jù)的表示方法和圖神經(jīng)網(wǎng)絡(luò)模型的表示方法。圖數(shù)據(jù)表示中涵蓋基本數(shù)據(jù)類型定義、圖數(shù)據(jù)類型定義、圖基本運(yùn)算定義以及圖基本任務(wù)定義。圖神經(jīng)網(wǎng)絡(luò)模型表示中涵蓋模型結(jié)構(gòu)和基礎(chǔ)算子定義,并從任務(wù)劃分的角度規(guī)范了圖神經(jīng)網(wǎng)絡(luò)點(diǎn)級(jí)模型、邊級(jí)模型和圖級(jí)模型的算子接口。具體要求見第6章和第7章;b)圖神經(jīng)網(wǎng)絡(luò)壓縮和加速:規(guī)范了圖神經(jīng)網(wǎng)絡(luò)壓縮方法和模型加速策略及其算子接口。壓縮方法包括圖數(shù)據(jù)的壓縮以及圖模型的壓縮兩個(gè)部分。圖數(shù)據(jù)的壓縮包括圖拓?fù)浣Y(jié)構(gòu)壓縮、圖特征數(shù)據(jù)壓縮以及圖采樣。圖模型的壓縮包括模型量化剪枝和模型蒸餾。對(duì)于圖數(shù)據(jù)和模型的壓縮方法,均定義了用于度量性能的指標(biāo)。圖模型加速包括并行加速策略、迭代加速策略、圖劃分策略以及通信加速策略。具體要求見第8章;c)圖神經(jīng)網(wǎng)絡(luò)計(jì)算框架:規(guī)范了基于深度學(xué)習(xí)平臺(tái)的圖神經(jīng)網(wǎng)絡(luò)計(jì)算框架,以及該計(jì)算框架與第三方數(shù)據(jù)源的接口定義?;谏疃葘W(xué)習(xí)平臺(tái)的圖神經(jīng)網(wǎng)絡(luò)計(jì)算框架定義了系統(tǒng)邏輯體系結(jié)構(gòu),以及與深度學(xué)習(xí)平臺(tái)的接口規(guī)范。與第三方數(shù)據(jù)源接口定義包括圖數(shù)據(jù)庫(kù)接口和批處理系統(tǒng)接口。具體要求見第9章節(jié)。6圖數(shù)據(jù)表示6.1基本定義6.1.1概述圖數(shù)據(jù)是一種用于表示對(duì)象及其關(guān)系的結(jié)構(gòu)化數(shù)據(jù)形式。本章節(jié)定義了用于完成圖基本運(yùn)算和圖的基本任務(wù)的圖數(shù)據(jù)結(jié)構(gòu),以及用于組成圖數(shù)據(jù)結(jié)構(gòu)的基本數(shù)據(jù)類型。6.1.2數(shù)據(jù)結(jié)構(gòu)定義6GB/T42382.3—XXXX消息為數(shù)據(jù)結(jié)構(gòu)的基本單元,字段為構(gòu)成消息的基本元素,一個(gè)消息包含一個(gè)或多個(gè)字段。如圖2所示。圖2數(shù)據(jù)結(jié)構(gòu)每個(gè)字段應(yīng)由標(biāo)簽、類型、名稱和編號(hào)等子字段組成。a)字段標(biāo)簽:字段標(biāo)簽用于定義字段的屬性和使用規(guī)則,默認(rèn)情況下,所有字段均被視為可選("optional"),無需顯式聲明,以簡(jiǎn)化編程語言的使用,并確保向后兼容性;當(dāng)字段需要表示多個(gè)值時(shí),應(yīng)使用"repeated"關(guān)鍵字進(jìn)行標(biāo)注,以明確該字段可以包含一個(gè)以上的值;b)字段類型:字段類型定義了字段可以存儲(chǔ)的數(shù)據(jù)類型,類型包括int32、float、double、bool和string等標(biāo)準(zhǔn)數(shù)據(jù)類型,以及枚舉(enum)、映射(map)、消息(message)等復(fù)合類型;c)字段名稱:字段名稱是在消息定義中為字段指定的唯一名稱,用于標(biāo)識(shí)和訪問消息的具體部分;d)字段編號(hào):字段編號(hào)是一個(gè)正整數(shù),用于在消息的二進(jìn)制格式中唯一標(biāo)識(shí)字段。注:字段編號(hào)是消息序列化和反序列化過程中的關(guān)鍵,確保了即使字6.1.3基本數(shù)據(jù)類型定義整數(shù)定義整數(shù)定義見表1。表1整數(shù)定義oneof{uint32,uint64,int32,浮點(diǎn)數(shù)定義浮點(diǎn)數(shù)定義見表2。7GB/T42382.3—XXXX表2浮點(diǎn)數(shù)定義元組定義元組定義見表3。表3元組定義………列表定義列表定義見表4。表4列表定義字典定義字典定義見表5。8GB/T42382.3—XXXX表5字典定義張量定義張量定義見表6。表6張量定義tensorbool稀疏張量定義稀疏張量定義見表7。表7稀疏張量定義9GB/T42382.3—XXXX表7稀疏張量定義(續(xù))bool坐標(biāo)格式索引坐標(biāo)格式索引定義見表8。表8坐標(biāo)格式索引_壓縮稀疏行索引壓縮稀疏行索引定義見表9。表9壓縮稀疏行索引定義rowptr0壓縮稀疏列索引壓縮稀疏列索引定義見表10。GB/T42382.3—XXXX表10壓縮稀疏列索列定義_6.2圖數(shù)據(jù)類型定義6.2.1同質(zhì)圖定義同質(zhì)圖定義見表11。表11同質(zhì)圖定義Xoneof{tensor,SparseTYpos6.2.2異質(zhì)圖定義異質(zhì)圖定義見表12。表12異質(zhì)圖定義pos_dictGB/T42382.3—XXXX6.2.3批量圖定義批量圖定義見表13。表13批量圖定義Xtensoroneof{tensor,SparseTtensorYtensorpostensorbatchtensorptrtensor6.2.4動(dòng)態(tài)圖定義動(dòng)態(tài)圖定義見表14。表14動(dòng)態(tài)圖定義tensortensorttensortensor6.2.5坐標(biāo)圖定義坐標(biāo)圖定義見表15。GB/T42382.3—XXXX表15坐標(biāo)圖定義RtensorXtensortensoroneof{tensor,SparseTtensorYtensortensortensor6.3圖基本運(yùn)算圖基本運(yùn)算的基本運(yùn)算定義見表16~表48。degree運(yùn)算操作定義見表16。表16degree運(yùn)算操作定義計(jì)算給定的一維索引張量對(duì)應(yīng)圖的(未加權(quán))度tensornumnodes_YtensordropEdge運(yùn)算操作定義見表17。GB/T42382.3—XXXX表17dropEdge運(yùn)算操作定義根據(jù)伯努利分從圖中隨機(jī)丟tensortensorpbool_boolYtensorsort_edge_index運(yùn)算操作定義見表18。表18sort_edge_index運(yùn)算操作定義邊索引進(jìn)行排序tensortensornumnodes_目標(biāo)節(jié)點(diǎn)ID排序boolYtensoradd_self_loops運(yùn)算操作定義見表19。GB/T42382.3—XXXX表19add_self_loops運(yùn)算操作定義為每個(gè)節(jié)點(diǎn)添加自環(huán)并且根tensortensorgtensorfloatnumnodes_booltensor輸出邊權(quán)重,如項(xiàng)tensorgremove_self_loops運(yùn)算操作定義見表20。表20remove_self_loops運(yùn)算操作定義刪除圖中的每tensortensorgtensorGB/T42382.3—XXXX表20remove_self_loops運(yùn)算操作定義(續(xù))remove_self_loops刪除圖中的每tensorgsegregate_self_loops運(yùn)算操作定義見表21。表21segregate_self_loops運(yùn)算操作定義從圖中分離出tensortensortensor陣tensortensortensoradd_remain_self_loops運(yùn)算操作定義見表22。表22add_remain_self_loops運(yùn)算操作定義將自環(huán)添加到?jīng)]有自環(huán)的節(jié)自環(huán)的同時(shí)根tensortensortensorstringnumnodes_GB/T42382.3—XXXX表22add_remain_self_loops運(yùn)算操作定義(續(xù))將自環(huán)添加到?jīng)]有自環(huán)的節(jié)自環(huán)的同時(shí)根tensortensorcontains_isolated_nodes運(yùn)算操作定義見表23。表23contains_isolated_nodes運(yùn)算操作定義判斷圖中是否含有孤立的節(jié)點(diǎn)tensornumnodes_boolremove_isolated_nodes運(yùn)算操作定義見表24。表24remove_isolated_nodes運(yùn)算操作定義 removeisolated_nod 刪除圖中孤立tensortensor numnodes tensortensortensorsubgraph運(yùn)算操作定義見表25。GB/T42382.3—XXXX表25subgraph運(yùn)算操作定義提取節(jié)點(diǎn)編號(hào)圖tensortensortensorgrelabel_nodesboolnumnodes_booltensortensorgtensork_hop_subgraph運(yùn)算操作定義見表26。GB/T42382.3—XXXX表26k_hop_subgraph運(yùn)算操作定義node_idxtensornum_hopstensorboolgnumnodes_boolg,則刪除該項(xiàng)tensortensortensorg項(xiàng)tensorget_laplacian運(yùn)算操作定義見表27。GB/T42382.3—XXXX表27get_laplacian運(yùn)算操作定義計(jì)算出圖的拉tensortensornumnodes_tensortensorto_dense_batch運(yùn)算操作定義見表28。表28to_dense_batch運(yùn)算操作定義將批量圖上的節(jié)點(diǎn)特征轉(zhuǎn)換為各個(gè)子圖上稠密的節(jié)點(diǎn)特征Xtensorbatchtensor__batch_size將批量圖上的節(jié)點(diǎn)特征轉(zhuǎn)換為各個(gè)子圖上稠密的節(jié)點(diǎn)特征Y陣tensortensorto_dense_adj運(yùn)算操作定義見表29。GB/T42382.3—XXXX表29to_dense_adj運(yùn)算操作定義將稀疏批量邊索引張量轉(zhuǎn)換tensorbatch量tensortensor__batch_sizetensorto_sparse運(yùn)算操作定義見表30。表30to_sparse運(yùn)算操作定義將稠密的批量鄰接矩陣轉(zhuǎn)換tensortensortensortensornormalized_cut運(yùn)算操作定義見表31。GB/T42382.3—XXXX表31normalized_cut運(yùn)算操作定義計(jì)算加權(quán)圖的tensortensornumnodes_tensorgrid運(yùn)算操作定義見表32。表32grid運(yùn)算操作定義返回給定寬高的網(wǎng)格圖的邊索引以及節(jié)點(diǎn)widthtensorpostensorsoftmax_nodes運(yùn)算操作定義見表33。表33softmax_nodes運(yùn)算操作定義對(duì)節(jié)點(diǎn)特征執(zhí)行softmax計(jì)算gphXtensorYtensorGB/T42382.3—XXXXsoftmax_edges運(yùn)算操作定義見表34。表34softmax_edges運(yùn)算操作定義對(duì)邊特征執(zhí)行g(shù)phtensor征tensorbroadcast_nodes運(yùn)算操作定義見表35。表35broadcast_nodes運(yùn)算操作定義broadcast_nodes將圖級(jí)特征廣播到節(jié)點(diǎn)級(jí)表示gphtensorYtensorbroadcast_edges運(yùn)算操作定義見表36。表36broadcast_edges運(yùn)算操作定義將圖級(jí)特征廣gphtensortensorGB/T42382.3—XXXXgraph_partition運(yùn)算操作定義見表37。表37graph_partition運(yùn)算操作定義將圖劃分成若gphnum_partpart_methodY表ph]fps運(yùn)算操作定義見表38。表38fps運(yùn)算操作定義一種用于點(diǎn)云數(shù)據(jù)采樣的運(yùn)Xtensorbatchtensorrandom_startboolbatch_sizeYtensorgraclus運(yùn)算操作定義見表39。表39graclus運(yùn)算操作定義一種貪婪聚類選擇未標(biāo)記的節(jié)點(diǎn)并將其與未標(biāo)記的節(jié)點(diǎn)tensorgrelabel_idxboolGB/T42382.3—XXXX表39graclus運(yùn)算操作定義(續(xù))一種貪婪聚類選擇未標(biāo)記的節(jié)點(diǎn)并將其與未標(biāo)記的節(jié)點(diǎn)邊權(quán)重矩陣,如tensornumnodes_Ytensorknn運(yùn)算操作定義見表40。表40knn運(yùn)算操作定義用于為y中的每個(gè)元素查找x中的k個(gè)最近XtensorYtensorkbatch_xtensorbatch_ytensor離bool_batch_sizeZtensorknn_graph運(yùn)算操作定義見表41。表41knn_graph運(yùn)算操作定義用于構(gòu)建樣本點(diǎn)滿足k近鄰XtensorkbatchtensorGB/T42382.3—XXXX表41knn_graph運(yùn)算操作定義(續(xù))用于構(gòu)建樣本點(diǎn)滿足k近鄰batch_sizeg滿足要求的k近nearest運(yùn)算操作定義見表42。表42nearest運(yùn)算操作定義用于為y中每個(gè)元素,在x中查找距離最近的元素的運(yùn)XtensorYtensorbatch_xtensorbatch_ytensorZtensorradius運(yùn)算操作定義見表43。表43radius運(yùn)算操作定義radius用于為y中的每個(gè)元素找到x中距離不超過r的所有點(diǎn)XtensorYtensorrbatch_xtensorbatch_ytensor_GB/T42382.3—XXXX表43radius運(yùn)算操作定義(續(xù))用于為y中的每個(gè)元素找到x中距離不超過r的所有點(diǎn)batch_sizeZtensorradius_graph運(yùn)算操作定義見表44。表44radius_graph運(yùn)算操作定義構(gòu)建距離在一Xtensorrpboolboolgvoxel_grid運(yùn)算操作定義見表45。表45voxel_grid運(yùn)算操作定義利用在點(diǎn)云上覆蓋規(guī)則網(wǎng)格并進(jìn)行聚類的體素網(wǎng)格池化postensorbatchtensortensortensorGB/T42382.3—XXXX表45voxel_grid運(yùn)算操作定義(續(xù))利用在點(diǎn)云上覆蓋規(guī)則網(wǎng)格并進(jìn)行聚類的體素網(wǎng)格池化tensorYtensordropNode運(yùn)算操作定義見表46。表46dropNode運(yùn)算操作定義使用來自伯努以概率p從圖節(jié)點(diǎn)中隨機(jī)丟棄某些節(jié)點(diǎn)出tensorXtensorptensorYtensordropFeature運(yùn)算操作定義見表47。表47dropFeature運(yùn)算操作定義使用來自伯努以概率p從圖節(jié)點(diǎn)中隨機(jī)丟棄所有節(jié)點(diǎn)某些維度的特征tensorXtensorptensorYtensorGB/T42382.3—XXXXdropMessage運(yùn)算操作定義見表48。表48dropMessage運(yùn)算操作定義使用來自伯努以概率p從圖節(jié)點(diǎn)中隨機(jī)丟棄節(jié)點(diǎn)發(fā)出消tensorXtensortensorptensorYtensordropGraph運(yùn)算操作定義見表49表49dropGraph運(yùn)算操作定義使用來自伯努以概率p從圖節(jié)點(diǎn)中隨機(jī)丟棄某些節(jié)點(diǎn)及其Q階鄰居節(jié)絡(luò)關(guān)注的區(qū)域具有更大的被tensorXtensorQYtensor6.4圖基本任務(wù)圖神經(jīng)網(wǎng)絡(luò)的下游任務(wù)按任務(wù)形式與監(jiān)督形式進(jìn)行劃分:a)按任務(wù)形式劃分,圖神經(jīng)網(wǎng)絡(luò)的下游任務(wù)劃分為節(jié)點(diǎn)級(jí)別任務(wù)、邊級(jí)別任務(wù)和圖級(jí)別任務(wù):1)節(jié)點(diǎn)級(jí)別任務(wù)分為:節(jié)點(diǎn)分類、節(jié)點(diǎn)回歸、節(jié)點(diǎn)聚類等。節(jié)點(diǎn)分類是指對(duì)于給定的圖中的節(jié)點(diǎn),將其劃分為某類別或標(biāo)簽;節(jié)點(diǎn)回歸是指對(duì)給定圖中的節(jié)點(diǎn)進(jìn)行數(shù)值預(yù)測(cè),用于預(yù)測(cè)節(jié)點(diǎn)的屬性值;節(jié)點(diǎn)聚類是指將圖中的節(jié)點(diǎn)劃分為不同的群組或簇;GB/T42382.3—XXXX2)邊級(jí)別任務(wù)分為:邊分類、邊回歸、鏈接預(yù)測(cè)等。邊分類是指對(duì)于給定的圖中的邊,將其劃分為某類別或標(biāo)簽;邊回歸是指對(duì)給定圖中的邊進(jìn)行數(shù)值預(yù)測(cè),以預(yù)測(cè)邊上的屬性值或邊的權(quán)重等信息;鏈接預(yù)測(cè)是指預(yù)測(cè)圖中尚未出現(xiàn)但潛在存在的邊;3)圖級(jí)別分為:圖分類、圖回歸、圖匹配、圖生成等。圖分類是指將給定的圖劃分為某類別或標(biāo)簽;圖回歸是指預(yù)測(cè)圖的某些連續(xù)性目標(biāo)變量;圖匹配是指對(duì)給定的一對(duì)圖進(jìn)行相似度評(píng)估或匹配;圖生成是指模型生成圖對(duì)象實(shí)例,使其滿足符合要求的某些特定性質(zhì)。b)按監(jiān)督形式劃分,圖神經(jīng)網(wǎng)絡(luò)的下游任務(wù)分為:監(jiān)督訓(xùn)練、半監(jiān)督訓(xùn)練、無監(jiān)督訓(xùn)練三種形式:1)監(jiān)督訓(xùn)練是指每一個(gè)參與訓(xùn)練的樣本對(duì)象都有對(duì)應(yīng)的標(biāo)記標(biāo)簽;2)半監(jiān)督訓(xùn)練是指僅有部分參與訓(xùn)練的樣本對(duì)象有對(duì)應(yīng)的標(biāo)記標(biāo)簽。在測(cè)試階段,直推式學(xué)習(xí)配置方式讓圖神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)已經(jīng)在訓(xùn)練階段給出的未標(biāo)記樣本的標(biāo)簽值;歸納式學(xué)習(xí)配置方式讓圖神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)未在訓(xùn)練階段見過的全新樣本;3)無監(jiān)督訓(xùn)練是指參與訓(xùn)練的樣本沒有來自外部的標(biāo)記標(biāo)簽,模型尋找樣本對(duì)象的內(nèi)在模式,將其轉(zhuǎn)化為監(jiān)督信號(hào)來指導(dǎo)模型訓(xùn)練。預(yù)訓(xùn)練策略是使用圖神經(jīng)網(wǎng)絡(luò)來學(xué)習(xí)樣本對(duì)象的向量化表示,向量化表示應(yīng)表征樣本對(duì)象在圖上的內(nèi)在性質(zhì)。7圖神經(jīng)網(wǎng)絡(luò)模型7.1模型結(jié)構(gòu)7.1.1計(jì)算圖定義計(jì)算圖定義見表50。表50計(jì)算圖定義NodeDef[repeated]debug_infoGraphDebugInfo操作節(jié)點(diǎn)定義操作節(jié)點(diǎn)定義見表51。表51操作節(jié)點(diǎn)定義NodeDefGB/T42382.3—XXXX表51操作節(jié)點(diǎn)定義(續(xù))NodeDef版本定義版本定義見表52。表52版本定義producerbad_consumers函數(shù)庫(kù)定義函數(shù)定義庫(kù)見表53。表53函數(shù)庫(kù)定義函數(shù)定義見表54。GB/T42382.3—XXXX表54函數(shù)定義FunctionDefOpDefmap<uint32,map<string,Dataresource_arg_unique_idnode_defNodeDef[repeated]函數(shù)簽操作定義見表55。表55函數(shù)簽名操作定義OpDefboolboolGB/T42382.3—XXXXbool表55函數(shù)簽名操作定義(續(xù))OpDefallows_uninitializedboolis_distributed_communbool梯度定義見表56。表56梯度定義GradientDef注冊(cè)梯度定義見表57。表57注冊(cè)梯度定義計(jì)算圖調(diào)試信息計(jì)算圖調(diào)試信息定義見表58。表58計(jì)算圖調(diào)試信息定義GraphDebugInfoGB/T42382.3—XXXXmap<fixed64,FileLineCo表58計(jì)算圖調(diào)試信息定義(續(xù))GraphDebugInfomap<fixed64,StackTr射__map<string,fixed64>文件行列定義見表59。表59文件行列定義棧追蹤定義見表60。表60棧追蹤定義7.1.2圖神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)定義圖神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)定義見表61。GB/T42382.3—XXXX表61圖神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)定義OpDef7.2基礎(chǔ)算子7.2.1概述基礎(chǔ)算子是圖神經(jīng)網(wǎng)絡(luò)中傳遞和聚合消息的基本組件,分為消息傳遞算子、池化算子和歸一化算子。7.2.2消息傳遞算子概述消息傳遞算子是圖神經(jīng)網(wǎng)絡(luò)中的核心操作,模擬消息在圖結(jié)構(gòu)中的傳播和交互過程。其計(jì)算過程包括三個(gè)子算子:消息算子、聚合算子、更新算子?;谙鬟f的圖神經(jīng)網(wǎng)絡(luò)卷積算子,可通過消息算子、聚合算子和更新算子的組合方式實(shí)現(xiàn)。消息算子消息算子是定義在每條邊上,通過將邊的特征與其附帶節(jié)點(diǎn)的特征相結(jié)合來生成信息的操作。send_message運(yùn)算操作定義見表62。GB/T42382.3—XXXX表62send_message運(yùn)算操作定義自定義消息發(fā)_tensortensor]tensortensor]tensortensor]tensortensor]Ytensortensor]聚合算子聚合算子是消息傳遞過程中的關(guān)鍵組件,用于從節(jié)點(diǎn)的鄰居聚合消息。具體定義見表63~表67。recv_message運(yùn)算操作定義見表63。表63recv_message運(yùn)算操作定義Xtensortensor]GB/T42382.3—XXXX表63recv_message運(yùn)算操作定義(續(xù))自定義消息接tensorYtensorreduce_funcsum聚合操作定義見表64。表64sum聚合操作型聚合來自鄰居“和”生成節(jié)點(diǎn)級(jí)表示Xtensortensor]tensortensor]numnodes_Ytensortensor]max聚合操作定義見表65。GB/T42382.3—XXXX表65max聚合操作聚合來自鄰居過聚合函數(shù)“最大”生成節(jié)點(diǎn)級(jí)Xtensortensor]tensortensor]numnodes_Ytensortensor]min聚合操作定義見表66。表66min聚合操作Xtensortensor]tensortensor]numnodes_Ytensortensor]GB/T42382.3—XXXXmean聚合操作定義見表67。表67mean聚合操作Xtensortensornumnodes_Ytensor更新算子更新算子是消息傳遞過程中的關(guān)鍵組件,定義在每個(gè)節(jié)點(diǎn)上,把聚合的消息或自身的特征進(jìn)行處理以更新節(jié)點(diǎn)特征。update更新操作定義見表68。表68update更新操作update在每個(gè)節(jié)點(diǎn)上聚合的消息或自身的特征來HtensorXtensor numnodes Y征tensorGB/T42382.3—XXXX表68update更新操作(續(xù))update在每個(gè)節(jié)點(diǎn)上聚合的消息或自身的特征來update_rule等卷積算子圖卷積算子的具體定義見表69~表119。GCNConv運(yùn)算操作定義見表69。表69GCNConv運(yùn)算操作定義構(gòu)建譜域圖卷Xtensortensor]gtensortensorYtensorboolboolboolbiasboolboolGB/T42382.3—XXXXChebConv運(yùn)算操作定義見表70。表70ChebConv運(yùn)算操作定義使用特征張量Xtensortensorgtensorbatchtensor值tensorYtensorkbiasboolSAGEConv運(yùn)算操作定義見表71。表71SAGEConv運(yùn)算操作定義通過對(duì)圖中的節(jié)點(diǎn)進(jìn)行采樣和聚合操作來學(xué)習(xí)節(jié)點(diǎn)的表示,從而能夠支持對(duì)圖數(shù)據(jù)的有效的學(xué)習(xí)Xtensor]gGB/T42382.3—XXXX表71SAGEConv運(yùn)算操作定義(續(xù))通過對(duì)圖中的節(jié)點(diǎn)進(jìn)行采樣和聚合操作來學(xué)習(xí)節(jié)點(diǎn)的表示,從而能夠支持對(duì)圖數(shù)據(jù)的有效的學(xué)習(xí)YtensorboolboolboolGraphConv運(yùn)算操作定義見表72。表72GraphConv運(yùn)算操作定義構(gòu)建高階圖神經(jīng)網(wǎng)絡(luò),使用特征張量和鄰接矩陣,輸出XtensortensorYtensorGB/T42382.3—XXXX表72GraphConv運(yùn)算操作定義(續(xù))構(gòu)建高階圖神經(jīng)網(wǎng)絡(luò),使用特征張量和鄰接矩陣,輸出法biasboolGravNetConv運(yùn)算操作定義見表73。表73GravNetConv運(yùn)算操作定義使用最近鄰居動(dòng)態(tài)構(gòu)建圖。鄰居通過特征空間的可學(xué)習(xí)的低維投影來使用距離權(quán)重將輸入特征空間的第二個(gè)投影從相鄰點(diǎn)傳點(diǎn),該距離權(quán)重是通過對(duì)距離應(yīng)用高斯函Xtensor]batchtensor]YkGatedgraphConv運(yùn)算操作定義見表74。表74GatedgraphConv運(yùn)算操作定義構(gòu)建門控圖卷積運(yùn)算符,使用特征張量和鄰接矩陣,輸XgYGB/T42382.3—XXXX表74GatedgraphConv運(yùn)算操作定義(續(xù))構(gòu)建門控圖卷積運(yùn)算符,使用特征張量和鄰接矩陣,輸法boolResGatedgraphConv運(yùn)算操作定義見表75。表75ResGatedgraphConv運(yùn)算操作定義構(gòu)建殘差門控符,使用特征張量和鄰接矩陣,輸出特征XtensortensortensorYtensorboolboolGB/T42382.3—XXXXGATConv運(yùn)算操作定義見表76。表76GATConv運(yùn)算操作定義構(gòu)建圖注意力運(yùn)算符,使用特征張量和鄰接矩陣,輸出Xtensor]gboolYtensor]量average操作,如bool率biasboolboolGB/T42382.3—XXXX表76GATConv運(yùn)算操作定義(續(xù))構(gòu)建圖注意力運(yùn)算符,使用特征張量和鄰接矩陣,輸出tensorstringboolresidual接boolTransformerConv運(yùn)算操作定義見表77。表77TransformerConv運(yùn)算操作定義構(gòu)建圖transfor用特征張量、鄰接矩陣和邊屬性張量,輸Xtensortensor]tensortensorboolYtensortensor量average操作,如boolGB/T42382.3—XXXX表77TransformerConv運(yùn)算操作定義(續(xù))構(gòu)建圖transfor用特征張量、鄰接矩陣和邊屬性張量,輸beta息bool在訓(xùn)練過程中,將每個(gè)節(jié)點(diǎn)暴露于隨機(jī)采樣的鄰域的歸一化注意力系數(shù)的丟棄概率boolbiasboolAGNNConv運(yùn)算操作定義見表78。表78AGNNConv運(yùn)算操作定義通過引入注意力機(jī)制來加權(quán)鄰居節(jié)點(diǎn)的貢獻(xiàn),使模型能夠更加關(guān)注于重要的鄰居節(jié)點(diǎn),從而提高圖神經(jīng)網(wǎng)絡(luò)處理圖數(shù)據(jù)的能力XYboolboolbeta值boolTAGConv運(yùn)算操作定義見表79。GB/T42382.3—XXXX表79TAGConv運(yùn)算操作定義基于節(jié)點(diǎn)特征自適應(yīng)的圖卷積方法,它通過考慮節(jié)點(diǎn)自身特征和鄰居節(jié)點(diǎn)特征之間的關(guān)系來更新XtensorgtensortensorYtensorkboolboolGINConv運(yùn)算操作定義見表80。表80GINConv運(yùn)算操作定義基于圖同構(gòu)的卷積操作。不考慮節(jié)點(diǎn)之間的順序關(guān)系,而是專注于節(jié)點(diǎn)之間的結(jié)構(gòu)Xtensortensor]tensorgtensorYtensornn數(shù)GB/T42382.3—XXXX表80GINConv運(yùn)算操作定義(續(xù))基于圖同構(gòu)的卷積操作。不考慮節(jié)點(diǎn)之間的順序關(guān)系,而是專注于節(jié)點(diǎn)之間的結(jié)構(gòu)boolGINEConv運(yùn)算操作定義見表81。表81GINEConv運(yùn)算操作定義改進(jìn)的圖同構(gòu)運(yùn)算符,使用一種新的策略和自監(jiān)督方法來預(yù)訓(xùn)練圖神Xtensor]gYnn數(shù)boolARMAConv運(yùn)算操作定義見表82。GB/T42382.3—XXXX表82ARMAConv運(yùn)算操作定義卷積運(yùn)算符,通過結(jié)合自回歸和移動(dòng)平均模型的思想,對(duì)圖上的節(jié)點(diǎn)XtensortensortensorYtensor_boolboolSGConv運(yùn)算操作定義見表83。表83SGConv運(yùn)算操作定義簡(jiǎn)化傳統(tǒng)圖卷積網(wǎng)絡(luò)中的計(jì)算復(fù)雜度,并提高模型的效率的圖卷積算子XtensorgtensortensorYtensorkboolGB/T42382.3—XXXX表83SGConv運(yùn)算操作定義(續(xù))簡(jiǎn)化傳統(tǒng)圖卷積網(wǎng)絡(luò)中的計(jì)算復(fù)雜度,并提高模型的效率的圖卷積算子boolbiasboolboolAPPNPConv運(yùn)算操作定義見表84。表84APPNPConv運(yùn)算操作定義構(gòu)建神經(jīng)預(yù)測(cè)層的近似個(gè)性化預(yù)測(cè)傳播運(yùn)算符,使用特征張量、鄰接矩陣和邊權(quán)重矩陣,輸出特XgYk執(zhí)行的對(duì)稱歸一果boolboolboolMFConv運(yùn)算操作定義見表85。GB/T42382.3—XXXX表85MFConv運(yùn)算操作定義通過對(duì)分子圖作,捕捉分子的結(jié)構(gòu)特征,紋,用于分子屬性預(yù)測(cè)、藥物篩選等應(yīng)用Xtensor]tensortensorYtensortensortensor]boolSignedConv運(yùn)算操作定義見表86。表86SignedConv運(yùn)算操作定義用了正負(fù)邊的信息來調(diào)整節(jié)點(diǎn)表示,使得節(jié)點(diǎn)能夠更好地捕捉圖中正Xtensortensor]pos_edge_indextensortensorYtensorGB/T42382.3—XXXX表86SignedConv運(yùn)算操作定義(續(xù))用了正負(fù)邊的信息來調(diào)整節(jié)點(diǎn)表示,使得節(jié)點(diǎn)能夠更好地捕捉圖中正boolbiasboolDNAConv運(yùn)算操作定義見表87。表87DNAConv運(yùn)算操作定義時(shí),根據(jù)節(jié)點(diǎn)自身特征和鄰居節(jié)點(diǎn)的特征動(dòng)態(tài)地確定鄰域大小和鄰域性,從而實(shí)現(xiàn)對(duì)節(jié)點(diǎn)表示的XY量執(zhí)行的對(duì)稱歸一果boolboolboolbiasbool注:此處x輸入的節(jié)點(diǎn)特征的形狀為[num_nodes,num_layeGB/T42382.3—XXXXPointConv運(yùn)算操作定義見表88。表88PointConv運(yùn)算操作定義專用于點(diǎn)云數(shù)據(jù),在計(jì)算節(jié)點(diǎn)表示時(shí),不再依賴于節(jié)點(diǎn)之間的連接關(guān)系,而是僅基于點(diǎn)的坐標(biāo)和屬性信息來進(jìn)Xtensortensor]tensorpostensortensor]Ytensor絡(luò)boolGMMConv運(yùn)算操作定義見表89。表89GMMConv運(yùn)算操作定義利用高斯混合模型學(xué)習(xí)生成每個(gè)節(jié)點(diǎn)的自適應(yīng)卷積核。這些卷積核允許網(wǎng)絡(luò)根據(jù)節(jié)點(diǎn)的局部鄰域結(jié)構(gòu)和特征動(dòng)態(tài)地調(diào)整,從而更好地捕捉Xtensortensor]pseudotensorgtensortensorYtensorGB/T42382.3—XXXX表89GMMConv運(yùn)算操作定義(續(xù))利用高斯混合模型學(xué)習(xí)生成每個(gè)節(jié)點(diǎn)的自適應(yīng)卷積核。這些卷積核允許網(wǎng)絡(luò)根據(jù)節(jié)點(diǎn)的局部鄰域結(jié)構(gòu)和特征動(dòng)態(tài)地調(diào)整,從而更好地捕捉kbool法boolresidual接boolbiasboolboolSplineConv運(yùn)算操作定義見表90。表90SplineConv運(yùn)算操作定義基函數(shù)來建模圖上的卷積操作。從而捕捉圖中節(jié)點(diǎn)之間的局部結(jié)構(gòu)和關(guān)系,允許網(wǎng)絡(luò)學(xué)習(xí)節(jié)點(diǎn)特征之間更復(fù)雜Xtensor]YGB/T42382.3—XXXX表90SplineConv運(yùn)算操作定義(續(xù))基函數(shù)來建模圖上的卷積操作。從而捕捉圖中節(jié)點(diǎn)之間的局部結(jié)構(gòu)和關(guān)系,允許網(wǎng)絡(luò)學(xué)習(xí)節(jié)點(diǎn)特征之間更復(fù)雜bool法boolboolNNConv運(yùn)算操作定義見表91。表91NNConv運(yùn)算操作定義NNConv基于自適應(yīng)卷積核的卷積操作,通過神經(jīng)網(wǎng)絡(luò)動(dòng)態(tài)地學(xué)習(xí)每個(gè)節(jié)點(diǎn)的卷積核。在節(jié)中,其利用節(jié)點(diǎn)自身的特征以及與其相鄰征,通過神經(jīng)網(wǎng)絡(luò)確定每個(gè)節(jié)點(diǎn)的自適應(yīng)卷積核,進(jìn)而實(shí)現(xiàn)節(jié)點(diǎn)特征Xtensortensor]gtensortensorYtensorGB/T42382.3—XXXX表91NNConv運(yùn)算操作定義(續(xù))NNConv基于自適應(yīng)卷積核的卷積操作,通過神經(jīng)網(wǎng)絡(luò)動(dòng)態(tài)地學(xué)習(xí)每個(gè)節(jié)點(diǎn)的卷積核。在節(jié)中,其利用節(jié)點(diǎn)自身的特征以及與其相鄰征,通過神經(jīng)網(wǎng)絡(luò)確定每個(gè)節(jié)點(diǎn)的自適應(yīng)卷積核,進(jìn)而實(shí)現(xiàn)節(jié)點(diǎn)特征nn法boolresidual接boolbiasboolCGConv運(yùn)算操作定義見表92。表92CGConv運(yùn)算操作定義構(gòu)建晶體圖卷積運(yùn)算符,根據(jù)晶體圖中原子的鄰接關(guān)系以及原子的特征向量,利用圖卷積操作來聚合每個(gè)原子Xtensor]Y法batch_normboolbiasboolEdgeConv運(yùn)算操作定義見表93。GB/T42382.3—XXXX表93EdgeConv運(yùn)算操作定義一種處理點(diǎn)云數(shù)據(jù)的動(dòng)態(tài)圖卷積算子,通過構(gòu)建動(dòng)態(tài)圖來描述點(diǎn)之間的連接關(guān)系,利用這些邊來聚合每個(gè)點(diǎn)的鄰域信息,并更新點(diǎn)的特征Xtensortensor]gtensorYtensortensor]nn絡(luò)batch_normboolbool法boolDynamicEdgeConv運(yùn)算操作定義見表94。表94DynamicEdgeConv運(yùn)算操作定義一種處理點(diǎn)云數(shù)據(jù)的動(dòng)態(tài)圖卷積算子,通過構(gòu)建動(dòng)態(tài)圖來描述點(diǎn)之間的連接關(guān)系,利用這些邊來聚合每個(gè)點(diǎn)的鄰域信息,并更新點(diǎn)的特征用特征空間中的最近鄰居動(dòng)Xtensortensor]batch量tensorYtensornnGB/T42382.3—XXXX表94DynamicEdgeConv運(yùn)算操作定義(續(xù))一種處理點(diǎn)云數(shù)據(jù)的動(dòng)態(tài)圖卷積算子,通過構(gòu)建動(dòng)態(tài)圖來描述點(diǎn)之間的連接關(guān)系,利用這些邊來聚合每個(gè)點(diǎn)的鄰域信息,并更新點(diǎn)的特征用特征空間中的最近鄰居動(dòng)k法_數(shù)XConv運(yùn)算操作定義見表95。表95XConv運(yùn)算操作定義XConv構(gòu)建X變換點(diǎn)上的卷積運(yùn)算符,對(duì)點(diǎn)云中的每個(gè)點(diǎn)進(jìn)行變換,將其轉(zhuǎn)換到局部坐標(biāo)它利用這些局部坐標(biāo)系來構(gòu)建卷積核,從而捕捉點(diǎn)云中點(diǎn)之間的局部Xposbatchtensor]Y度biasbool_數(shù)PPFConv運(yùn)算操作定義見表96。GB/T42382.3—XXXX表96PPFConv運(yùn)算操作定義一種有效且魯棒的方式來處據(jù),使得神經(jīng)網(wǎng)絡(luò)能夠更好地理解和利用點(diǎn)云中的局部信息,并在點(diǎn)云匹配任務(wù)中取得更好的性能Xtensortensor]postensortensor]tensortensortensor]YtensorboolFeatStConv運(yùn)算操作定義見表97。表97FeaStConv運(yùn)算操作定義布Xtensortensor]tensorYtensorGB/T42382.3—XXXX表97FeaStConv運(yùn)算操作定義(續(xù))根據(jù)輸入的特征信息來動(dòng)態(tài)調(diào)整卷積核的權(quán)重。這些權(quán)重可以根據(jù)輸入特征的情況來調(diào)整,從而使網(wǎng)絡(luò)能夠更好地適應(yīng)不同形狀的特征分布boolbiasboolHypergraphConv運(yùn)算操作定義見表98。表98HypergraphConv運(yùn)算操作定義系XY useattention boolbiasboolLEConv運(yùn)算操作定義見表99。GB/T42382.3—XXXX表99LEConv運(yùn)算操作定義在每個(gè)節(jié)點(diǎn)上對(duì)局部鄰域進(jìn)行卷積操作,并通過自適應(yīng)的結(jié)構(gòu)感知機(jī)制加強(qiáng)圖的層Xtensortensor]tensortensorYtensorboolPNAConv運(yùn)算操作定義見表100。表100PNAConv運(yùn)算操作定義通過將節(jié)點(diǎn)特征進(jìn)行多項(xiàng)式變換來捕捉節(jié)息。利用聚合函數(shù)將變換后的節(jié)點(diǎn)特征與鄰居節(jié)點(diǎn)的特征進(jìn)行結(jié)合,以獲得節(jié)點(diǎn)的XtensortensortensorYtensortensorGB/T42382.3—XXXX表100PNAConv運(yùn)算操作定義(續(xù))通過將節(jié)點(diǎn)特征進(jìn)行多項(xiàng)式變換來捕捉節(jié)息。利用聚合函數(shù)將變換后的節(jié)點(diǎn)特征與鄰居節(jié)點(diǎn)的特征進(jìn)行結(jié)合,以獲得節(jié)點(diǎn)的pre_layerspost_layersboolresidual接boolboolClusterGCNConv運(yùn)算操作定義見表101。表101ClusterGCNConv運(yùn)算操作定義將圖數(shù)據(jù)分解后在每個(gè)子圖上進(jìn)行獨(dú)立的而減少計(jì)算和Xtensor]YboolbiasboolGENConv運(yùn)算操作定義見表102。GB/T42382.3—XXXX表102GENConv運(yùn)算操作定義使用一系列可學(xué)習(xí)的參數(shù)化函數(shù)來對(duì)節(jié)點(diǎn)之間的消息傳遞進(jìn)行建模。這些參數(shù)化函數(shù)可以動(dòng)態(tài)地調(diào)整以適應(yīng)不同的圖結(jié)構(gòu)和Xtensortensor]tensortensorYtensortboolpboolmsg_normbool習(xí)boolboolGB/T42382.3—XXXXGCNIIConv運(yùn)算操作定義見表103。表103GCNIIConv運(yùn)算操作定義通過利用節(jié)點(diǎn)的自身特征和鄰居節(jié)點(diǎn)的特征,結(jié)合多項(xiàng)式參數(shù)化函數(shù)來進(jìn)行信息傳遞和聚合。從而學(xué)習(xí)節(jié)點(diǎn)特XgYboolbiasboolbool執(zhí)行的對(duì)稱歸一果boolboolboolWLConv運(yùn)算操作定義見表104。GB/T42382.3—XXXX表104WLConv運(yùn)算操作定義符,對(duì)每個(gè)節(jié)點(diǎn)及其鄰居節(jié)點(diǎn)的特征使用試對(duì)編碼后的圖進(jìn)行處理,最后通過卷積操作將編碼后的節(jié)點(diǎn)特征進(jìn)XtensortensorYtensorFiLMConv運(yùn)算操作定義見表105。表105FiLMConv運(yùn)算操作定義在傳統(tǒng)的圖卷積操作中引入通過對(duì)每個(gè)節(jié)點(diǎn)的特征進(jìn)行增強(qiáng)或減弱特定維度的特征表示,從而提高網(wǎng)絡(luò)對(duì)圖數(shù)據(jù)的建模能力Xtensortensor]tensortensorYtensornumrelation_nn法SuperGATConv運(yùn)算操作定義見表106。GB/T42382.3—XXXX表106SuperGATConv運(yùn)算操作定義利用圖注意力機(jī)制對(duì)節(jié)點(diǎn)之間的關(guān)系進(jìn)行每個(gè)節(jié)點(diǎn)與其鄰居節(jié)點(diǎn)之間的重要性。然后,利用自監(jiān)督學(xué)習(xí)的方法來引導(dǎo)網(wǎng)絡(luò)學(xué)習(xí)更有意義的節(jié)點(diǎn)表示,使得節(jié)點(diǎn)表示能夠更好地捕捉圖的結(jié)構(gòu)和特征XbatchY量average操作,如boolbiasboolbool類boolCFConv運(yùn)算操作定義見表107。GB/T42382.3—XXXX表107CFConv運(yùn)算操作定義使用可學(xué)習(xí)的濾波器函數(shù)來對(duì)原子之間的相互作用進(jìn)行建模,將原子間的相對(duì)位置和特征映射到一個(gè)連續(xù)的函數(shù)空間中,這些濾波后的特征表示會(huì)根據(jù)原子之間的相對(duì)位置進(jìn)行聚子的局部結(jié)構(gòu)XtensorgtensortensorYtensorDOTGATConv操作定義見表108。表108DOTGATConv運(yùn)算操作定義用點(diǎn)積方法計(jì)算注意力權(quán)重系數(shù)的圖卷積層Xtensortensor]gtensorboolYtensornumheads_boolboolGB/T42382.3—XXXXRGCNConv運(yùn)算操作定義見表109。表109RGCNConv運(yùn)算操作定義利用每種關(guān)系類型的參數(shù)化權(quán)重來進(jìn)行節(jié)點(diǎn)特征的聚合和更新,從而更好地捕捉圖中不同類型的Xtensor]gboolYnumrelations_ numblocks_boolbiasboolboolboolGB/T42382.3—XXXXHANConv運(yùn)算操作定義見表110。表110HANConv運(yùn)算操作定義使用注意力機(jī)制和元路徑來動(dòng)態(tài)地計(jì)算節(jié)點(diǎn)之間的關(guān)系權(quán)重,并利用這些權(quán)重對(duì)節(jié)點(diǎn)特征進(jìn)行聚tensor]g[Tuplestring,tensor]boolYtensor] [string,string,量negative_slopeGB/T42382.3—XXXXHGTConv運(yùn)算操作定義見表111。表111HGTConv運(yùn)算操作定義力機(jī)制來動(dòng)態(tài)地計(jì)算節(jié)點(diǎn)之重,并利用這些權(quán)重對(duì)節(jié)點(diǎn)特征進(jìn)行聚合Xtensor]g[Tuplestring,tensor]引boolYtensor]節(jié)點(diǎn)類型和由一型量GB/T42382.3—XXXX表111HGTConv運(yùn)算操作定義(續(xù))力機(jī)制來動(dòng)態(tài)地計(jì)算節(jié)點(diǎn)之重,并利用這些權(quán)重對(duì)節(jié)點(diǎn)特征進(jìn)行聚合boolMetaPath2Vec運(yùn)算操作定義見表112。表112MetaPath2Vec運(yùn)算操作定義構(gòu)建元路徑隨機(jī)游走嵌入學(xué)習(xí)運(yùn)算符,利用這些關(guān)系模式來生成節(jié)點(diǎn)序列。然后,它使用基于深學(xué)習(xí)節(jié)點(diǎn)的嵌入空間中相似batchtensorYtensor[Tuplestring,tensor]gstring,walks_per_nodeGB/T42382.3—XXXX表112MetaPath2Vec運(yùn)算操作定義(續(xù))構(gòu)建元路徑隨機(jī)游走嵌入學(xué)習(xí)運(yùn)算符,利用這些關(guān)系模式來生成節(jié)點(diǎn)它使用基于深學(xué)習(xí)節(jié)點(diǎn)的嵌入空間中相似s__boolHERec運(yùn)算操作定義見表113。表113HERec運(yùn)算操作定義利用一個(gè)交互式表示學(xué)習(xí)框架,將用戶和商品的隱含表示進(jìn)行交叉融加準(zhǔn)確的用戶-HERec利用這些匹配表示來提高推薦系統(tǒng)的性能和準(zhǔn)確度Xtensor][Tuplestring,tensor]gYstring,GB/T42382.3—XXXX表113HERec運(yùn)算操作定義(續(xù))利用一個(gè)交互式表示學(xué)習(xí)框架,將用戶和商品的隱含表示進(jìn)行交叉融加準(zhǔn)確的用戶-HERec利用這些匹配表示來提高推薦系統(tǒng)的性能和準(zhǔn)確度walks_per_nodesSetTransformerEncoder運(yùn)算操作定義見表114。表114SetTransformerEncoder運(yùn)算操作定義基于注意力機(jī)制的置換不變神經(jīng)網(wǎng)絡(luò)的編gtensorXtensorYtensor_d_ffblock_typemISAB模塊)SetTransformerDecoder運(yùn)算操作定義見表115。GB/T42382.3—XXXX表115SetTransformerDecoder運(yùn)算操作定義基于注意力機(jī)制的置換不變神經(jīng)網(wǎng)絡(luò)的解gXYnumheads_d_ffkGeomConv運(yùn)算操作定義見表116。表116GeomConv運(yùn)算操作定義幾何圖卷積神或“重構(gòu)”傳統(tǒng)聚合算子丟失征張量和鄰接XgYnumdivisions_GB/T42382.3—XXXX表116GeomConv運(yùn)算操作定義(續(xù))幾何圖卷積神或“重構(gòu)”傳統(tǒng)聚合算子丟失征張量和鄰接oeeEGNNConv運(yùn)算操作定義見表117。表117EGNNConv運(yùn)算操作定義構(gòu)建等變圖神坐標(biāo)特征矩陣輸出特征張量和節(jié)點(diǎn)坐標(biāo)特XtensorgtensortensortensorYtensortensorTWIRLSConv運(yùn)算操作定義見表118。GB/T42382.3—XXXX表118TWIRLSConv運(yùn)算操作定義構(gòu)建基于迭代重加權(quán)最小二乘的圖卷積運(yùn)張量和鄰接矩量XtensorgtensorYtensorprop_stepprecondbool數(shù)boolTp_boolattn_befboolGB/T42382.3—XXXX表118TWIRLSConv運(yùn)算操作定義(續(xù))構(gòu)建基于迭代重加權(quán)最小二乘的圖卷積運(yùn)張量和鄰接矩量率率GDO運(yùn)算操作定義見表119。表119GDO運(yùn)算操作定義采用分離提純的原始特征中抽離共有特征獲得蒸餾增強(qiáng)張量和鄰接矩X陣tensortensor]gtensortensorYtensor執(zhí)行的對(duì)稱歸一果boolboolShift-GCNConv運(yùn)算操作定義見表120。表120Shift-GCNConv運(yùn)算操作定義使用移位方法+1×1卷積進(jìn)行用特征張量和Xtensortensor]A陣tensorGB/T42382.3—XXXX表120Shift-GCNConv運(yùn)算操作定義(續(xù))使用移位方法+1×1卷積進(jìn)行用特征張量和tensorYtensorboolbiasboolShift-GCNConv算法偽代碼見表121。表121Shift-GCNConv算法偽代碼輸入:in_channels,out_nn.Conv2d(in_channels,out_channels,kernel_sizW_init=nn.initializers.XavierNorb_init='zeros',data_format='channels_firstnn.BatchNorm2d(out_channels,gamma_init=nn.initializers.Constant(1data_format='channels_)index_array_in=np.empty(in_channels).astype(npindex_array_out=np.empty(out_channels).astype(npifglobal:forjinrange(in_channels):index_array_in[in_channels+j]=(in_channels+j+j*in_channels)%(in_channels)GB/T42382.3—XXXX表121Shift-GCNConv算法偽代碼(續(xù))forjinrange(out_channels):index_array_out[out_channels+j]=(out_channels+j-j*out_channels)%(out_channels)self.shift_in=nn.Parameter(torch.from_numpy(index_array),requireself.shift_out=nn.Parameter(torch.from_numpy(index_array),requires_partition=np.sum(A[i])channel_per_partition_in=in_channels//pachannel_per_partition_out=out_channels//paneighbors=np.nonzero(current_A)[forjinrange(int(partition)):ifj==0:index_array_in[int(channels):int(channels+channel_per_partition_in)]=np.arange(channels,chachannel_per_partition_in).astype(nindex_array_out[int(channels):int(channels+channel_per_partition_out)]=np.arange(channels,chachannel_per_partition_out).astype(index_array_in[int(channels+j*channel_per_partitint(channels+(j+1)*channel_per_partition_np.arange(neighbors[j-1]*channels+j*channel_per_partition_in,neighbors[j-1]*channels+(j+1)*channel_per_partition_in).astype(index_array_out[int(channels+j*channel_per_partiint(channels+(j+1)*channel_per_partition_ounp.arange(neighbors[j-1]*channels+j*channel_per_partition_out,neighbors[j-1]*channels+(j+1)*channel_per_partition_out).astypself.shift_in=nn.Parameter(torch.from_numpy(index_array_in),requiresGB/T42382.3—XXXX表121Shift-GCNConv算法偽代碼(續(xù))self.shift_out=nn.Parameter(torch.from_numpy(index_array_out),requires_gX=torch.index_seleifbias:self.linear_bias=nn.Parameter(torch.zeros(1,1,out_channels,requires_grad=Tru

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論