




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
1、深思維智能知識云腦使用說明書 天津深思維科技有限公司2021/06/18聲明本使用說明書旨在幫助用戶與運(yùn)營人員對平臺使用、管理、維護(hù)進(jìn)行了解與掌握,使用說明書將對平臺功能進(jìn)行講解,衷心希望深思維智能知識云腦能為大家?guī)砜萍籍a(chǎn)能的改變,歸天津深思維科技有限公司所有,翻版必究。目錄一、名詞解釋41.算法部分42.后端部分283.前端部分35二、產(chǎn)品介紹411. 什么是知識圖譜412. 優(yōu)勢說明413. 體系架構(gòu)42三、系統(tǒng)功能結(jié)構(gòu)43四、系統(tǒng)功能介紹444.1登錄444.2系統(tǒng)管理504.3知識庫514.4知識圖譜524.5系統(tǒng)設(shè)置534.6資源管理564.7管理中心584.8權(quán)限管理60一、名詞
2、解釋1.算法部分(1)新詞發(fā)現(xiàn):采用(逐)點(diǎn)互信息(PMI, Pointwise Mutual Information)和左右熵(Left and Right Entropy)的算法自動發(fā)現(xiàn)特定領(lǐng)域中慣用及常用的新名詞和詞語組合。更容易發(fā)現(xiàn)更高階的詞語組合(例如93號/無鉛/乙醇/汽油),同時加入了用戶自定義相關(guān)參數(shù)的功能,可以靈活地根據(jù)用戶自身的需求對所發(fā)現(xiàn)新詞進(jìn)行篩選。(逐)點(diǎn)互信息(PMI,Pointwise Mutual Information):可以更好的發(fā)現(xiàn)無窮多個原子詞匯;PMI算法的得分域為(-,0,評分越高對應(yīng)新詞發(fā)現(xiàn)質(zhì)量越高。它反映了構(gòu)成新詞的原子詞之間內(nèi)聚的強(qiáng)度,得分越高
3、,則原子詞之間的關(guān)聯(lián)性越強(qiáng)。若構(gòu)成新詞的原子詞從不其他地方單獨(dú)出現(xiàn),則算法得分為最大值0。得分小于閾值的詞語將不被計入已發(fā)現(xiàn)新詞,閾值越高,返回結(jié)果越少。建議值是-2.0;左右熵(Left and Right Entropy)左右熵算法的得分域為0,+),評分越高對應(yīng)新詞發(fā)現(xiàn)的質(zhì)量越高。它反映了新詞對于其左右相鄰詞語的依賴程度,得分越高,則新詞對左右相鄰詞語的依賴程度越低,新詞本身的獨(dú)立性越高。若新詞在語料中僅以一種固定的方式與固定的左右詞相鄰,則算法得分為最小值0,閾值越高,返回結(jié)果越少。得分小于閾值的詞語將不被計入已發(fā)現(xiàn)新詞。建議值是1.5;golang:封裝部署,高效率、多并發(fā),運(yùn)行速度
4、快,所有正在運(yùn)行的程序輪流使用 CPU,每個程序允許占用 CPU 的時間非常短(比如 10 毫秒),根本感覺不出來 CPU 是在輪流為多個程序服務(wù),就好象所有的程序都在不間斷地運(yùn)行一樣。并發(fā)好處就是可以運(yùn)行多個程序,并不卡頓,運(yùn)行速度快。(2)實(shí)體關(guān)系部分:數(shù)據(jù)標(biāo)注:知識圖譜常用的isA 關(guān)系+語義依存關(guān)系(semeval16),用到hanlp;hanlp是由一系列模型預(yù)算法組成的工具包,結(jié)合深度神經(jīng)網(wǎng)絡(luò)的分布式自然語言處理,具有功能完善、性能高效、架構(gòu)清晰、語料時新、可自定義等特點(diǎn),提供詞法分析、句法分析、文本分析和情感分析等功能。不依賴其他jar,底層采用了一系列高速的數(shù)據(jù)結(jié)構(gòu),如雙數(shù)組T
5、rie樹、DAWG、AhoCorasickDoubleArrayTrie等,極速分詞模式下可達(dá)2,000萬字/秒。在IO方面,詞典加載速度極快,只需500 ms即可快速啟動。具備中文分詞、命名實(shí)體識別、信息抽取、文本分類、文本聚類、畫法分析等功能。模型訓(xùn)練:訓(xùn)練模型用到詞向量化word2vec、transformer、Bert;word2vec:是一種基于神經(jīng)網(wǎng)絡(luò)訓(xùn)練的自然語言模型。其特點(diǎn)就是將詞匯進(jìn)行向量化,這樣我們就可以定量的分析和挖掘詞匯之間的聯(lián)系。因而 word2vec 也是我們上一講講到的詞嵌入表征的一種,只不過這種向量化表征需要經(jīng)過神經(jīng)網(wǎng)絡(luò)訓(xùn)練得到。訓(xùn)練神經(jīng)網(wǎng)絡(luò)得到一個關(guān)于輸入 X
6、 和 輸出 Y 之間的語言模型,要獲取訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)權(quán)重,這個權(quán)重就是我們要拿來對輸入詞匯 X 的向量化表示。一旦我們拿到了訓(xùn)練語料所有詞匯的詞向量,接下來開展 NLP 分析工作就相對容易一些了。通常有兩個版本的語言模型。一種是給定上下文詞,需要我們來預(yù)測中間目標(biāo)詞,這種模型叫做連續(xù)詞袋模型(Continuous Bag-of-Wods Model,CBOW),另一種是給定一個詞語,我們來根據(jù)這個詞預(yù)測它的上下文,這種模型叫做skip-gram模型。而且每個模型都有兩種策略。-CBOW:應(yīng)用場景是要根據(jù)上下文預(yù)測中間詞,所以我們的輸入便是上下文詞,當(dāng)然原始的單詞是無法作為輸入的,這里的輸入仍
7、然是每個詞匯的 one-hot 向量,輸出 Y 為給定詞匯表中每個詞作為目標(biāo)詞的概率。參考CBOW 模型的結(jié)構(gòu)圖-skip-gram:應(yīng)用場景是要根據(jù)中間詞預(yù)測上下文詞,所以我們的輸入 X 是任意單詞,輸出 Y 為給定詞匯表中每個詞作為上下文詞的概率。參考 skip-gram 模型的結(jié)構(gòu)圖。 從 CBOW 和 skip-gram 模型的結(jié)構(gòu)圖可以看到,二者除了在輸入輸出上有所不同外,基本上沒有太大區(qū)別。將 CBOW 的輸入層換成輸出層基本上就變成了 skip-gram 模型,二者可以理解為一種互為翻轉(zhuǎn)的關(guān)系。從監(jiān)督學(xué)習(xí)的角度來說,word2vec 本質(zhì)上是一個基于神經(jīng)網(wǎng)絡(luò)的多分類問題,當(dāng)輸出詞
8、語非常多時,我們則需要一些像分級 Softmax 和負(fù)采樣之類的 trick 來加速訓(xùn)練。但從自然語言處理的角度來說,word2vec 關(guān)注的并不是神經(jīng)網(wǎng)絡(luò)模型本身,而是訓(xùn)練之后得到的詞匯的向量化表征。這種表征使得最后的詞向量維度要遠(yuǎn)遠(yuǎn)小于詞匯表大小,所以 word2vec 從本質(zhì)上來說是一種降維操作。我們把數(shù)以萬計的詞匯從高維空間中降維到低維空間中,大大方便了后續(xù)的 NLP 分析任務(wù)。Transformer:是一種 NLP 經(jīng)典模型,現(xiàn)在比較火熱的 Bert 也是基于 Transformer。Transformer 模型使用了 Self-Attention 機(jī)制,不采用 RNN 的順序結(jié)構(gòu),
9、使得模型可以并行化訓(xùn)練,而且能夠擁有全局信息。Transformer 結(jié)構(gòu)可以看到 Transformer 由 Encoder 和 Decoder 兩個部分組成,Encoder 和 Decoder 都包含 6 個 block。Transformer 的工作流程大體如下:第一步:獲取輸入句子的每一個單詞的表示向量X,X由單詞的 Embedding 和單詞位置的 Embedding 相加得到。第二步:將得到的單詞表示向量矩陣 (如上圖所示,每一行是一個單詞的表示x) 傳入 Encoder 中,經(jīng)過 6 個 Encoder block 后可以得到句子所有單詞的編碼信息矩陣C,如下圖。單詞向量矩陣用X
10、(nd)表示, n 是句子中單詞個數(shù),d 是表示向量的維度 (論文中 d=512)。每一個 Encoder block 輸出的矩陣維度與輸入完全一致。第三步:將 Encoder 輸出的編碼信息矩陣C傳遞到 Decoder 中,Decoder 依次會根據(jù)當(dāng)前翻譯過的單詞 1 i 翻譯下一個單詞 i+1,如下圖所示。在使用的過程中,翻譯到單詞 i+1 的時候需要通過Mask (掩蓋)操作遮蓋住 i+1 之后的單詞。上圖 Decoder 接收了 Encoder 的編碼矩陣C,然后首先輸入一個翻譯開始符 ,預(yù)測第一個單詞 I;然后輸入翻譯開始符 和單詞 I,預(yù)測單詞 have,以此類推。這是 Tran
11、sformer 使用時候的大致流程。BERT:(Bidirectional Encoder Representation from Transformers) 是Google在2018年提出了一種語言模型,是目前最優(yōu)秀的語言模型之一。采用了雙向Transformer模型,所以在了解BERT模型之前,我們先需要了解Transformer模型以及它的Attention機(jī)制。下圖中,BERT為雙向Transformer,而OpenAI GPT為單向Transformer。首先,BERT是一個預(yù)訓(xùn)練(Pre-training)語言模型,BERT使用大量的語料進(jìn)行預(yù)訓(xùn)練,這樣訓(xùn)練出的模型泛化能力極強(qiáng),可
12、以應(yīng)對大部分下游任務(wù)(例如實(shí)體識別、情感分類等)。而在使用BERT模型時,我們只需要對其微調(diào)(fine-tune),用少量數(shù)據(jù)再訓(xùn)練即可。如下圖所示,在預(yù)訓(xùn)練時,BERT使用無標(biāo)簽的句子對,而對于下游的問答任務(wù),只需要再用問題-答案組合對模型微調(diào)。BERT將輸入的兩個句子連在一起,中間加入了SEP符號作為分割,以CLS作為開始符號,SEP作為分割和結(jié)束的符號,playing被分為兩部分play和#ing。1 Token Embeddings是詞向量,查表得到2 Segment Embedding用來表明該詞屬于哪個句子 Position Embeddings是位置信息,但不同于Transfor
13、mer,這里的Position Embeddings為每個位置都隨機(jī)初始化了一個固定值,即(在圖中) Position Embeddings共有11種取值,分別為E0-E10??偟膩碚f,bert接收文本輸入,通過切詞,對于每個token,將其對應(yīng)的token embedding、segment embedding和position embedding求和,作為該token的表示向量,輸入到模型中。BERT的預(yù)訓(xùn)練包含兩個任務(wù),一個是Masked Language Model,另一個是Next Sentence Prediction。Masked LM 會隨機(jī)mask每一個句子中15%的詞,用其
14、上下文來做預(yù)測,如下圖所示,蓋住“他”,讓模型用無監(jiān)督的方法來預(yù)測該位置的詞,類似于完形填空。此外,由于15%的詞數(shù)量很多,會導(dǎo)致微調(diào)階段的一些詞在預(yù)訓(xùn)練階段沒有出現(xiàn)過。對此,Masked LM的mask過程分為了三種情況:80%的概率直接替換為mask10%的概率是隨替換為其他token10%的概率保持不變在Next Sentence Prediction中, 模型會選擇一些句子對A與B,其中50%的數(shù)據(jù)B是A的下一條句子,剩余50%的數(shù)據(jù)B是語料庫中隨機(jī)選擇的,學(xué)習(xí)其中的相關(guān)性。這樣做的目的是讓BERT更好地理解句子之間的關(guān)聯(lián),用以應(yīng)對QA、NLI等下游任務(wù)。從理論到實(shí)踐介紹了transf
15、ormer和預(yù)訓(xùn)練模型bertTransformerEncoderMulti-Head-AttentionLayerNorm & BatchNormFFN(Feed Forward Network)DecoderBert輸入(三個Embedding:token embedding, segment embedding, position embedding)預(yù)訓(xùn)練任務(wù)(MLM,NSP) 微調(diào)(分類、NER等)api:使用tensorflow,keras,具有良好的通用性。tensorflow:是一個使用數(shù)據(jù)流圖進(jìn)行數(shù)值計算的軟件庫。圖中的節(jié)點(diǎn)代表數(shù)學(xué)運(yùn)算,而圖中的邊則代表在這些節(jié)點(diǎn)之間傳遞的多
16、維數(shù)組(張量)。借助這種靈活的架構(gòu),可以通過一個 API 將計算工作部署到桌面設(shè)備、服務(wù)器或移動設(shè)備中的一個或多個 CPU 或 GPU。主要用于進(jìn)行機(jī)器學(xué)習(xí)和深度神經(jīng)網(wǎng)絡(luò)研究,具有很好的通用性,還可以應(yīng)用于眾多其他領(lǐng)域。keras:是一個高層神經(jīng)網(wǎng)絡(luò)API,它本身就是一個上層封裝的工具庫,它是由純Python編寫而成并基Tensorflow、Theano、mxnet以及CNTK后端。keras也有它獨(dú)特的優(yōu)點(diǎn)如下1.簡易和快速的原型設(shè)計2*.支持CNN與RNN*,或兩者結(jié)合3.無縫CPU與GPU切換。Transformer:由編碼組件(Encoders)和解碼組件(Decoders)兩部分組成
17、,如圖所示,其中,Encoders起到了特征提取器的作用,它從文本中提取出重要特征交付給Decoders,而Decoders再將特征翻譯為我們期望的輸出。Transformer的Encoders部分和Decoders部分組成如下圖所示,其結(jié)構(gòu)類似于RNN,由6個編碼器和六個解碼器組成,但不同于RNN的是,這12個編碼解碼單元之間不共享權(quán)重。再將模型細(xì)化,單個Encoder的結(jié)構(gòu)如右圖所示,整個編碼結(jié)構(gòu)由6個(圖中N=6)該結(jié)構(gòu)串聯(lián)組成,下面我們來逐個解釋圖中的組件:Input Embedding: 將文本輸入編碼為詞向量,這一部分可用的方法很多,比較著名的是Word2VectorPositio
18、nal Encoding(PE): 位置編碼,顧名思義是為了向輸入序列中添加位置信息,這是由于Transformer不同于RNN或CNN的特征提取器,他不能天然地處理輸入的順序(RNN的遞歸結(jié)構(gòu),CNN卷積層的滑動窗口都可以自然地記錄輸入序列的順序),需要手動地添加位置信息。這里PE使用了正弦和余弦函數(shù)。通過以上兩式結(jié)果的乘積可以得到最終的位置編碼。Transformer中的前饋神經(jīng)網(wǎng)絡(luò)是一個全連接層,并應(yīng)用了ReLU激活函數(shù),前文的注意力機(jī)制本質(zhì)是線性加權(quán),所以這里加入非線性模塊,提升模型的擬合能力:Add & Norm: 殘差塊+歸一化殘差塊為網(wǎng)絡(luò)提供“shortcut”,加快模型的收斂速
19、度,解決梯度爆炸和梯度消失問題。Norm使用的是Layer Norm(LN),不同于Batch Norm(BN),LN對整個輸入維度進(jìn)行歸一化,而不是BN對batch中的不同樣本之間歸一化。Add & Norm的流程:LayerNorm 與 BatchNorm:假設(shè)有N個樣本,每個樣本的特征維度為4,圖中每個小圓代表一個特征,特征1,特征2等等,特征4。BatchNormalization是在N個同一特征(如特征1)上求均值和方差,這里要對每個特征求1次,共4次。對照一下上面說的,萬一有個樣本有5個特征,是不是就沒法玩了。LayerNormalization呢,別的樣本都和我沒啥關(guān)系,有多少個
20、特征我把這些特征求個均值方差就好了。這也就是為什么一個叫”批歸一化“,另一個叫”層歸一化“了。Decoder:下圖是Decoder的部分,Encoder的輸出與中間的Attention層相連接。對于Decoder,和Encoder一樣,我們在每個Decoder的輸入做Embedding并添加上表示每個字位置的位置編碼。在Decoder中,self-attention只關(guān)注輸出序列中的較早的位置,這是通過Masked Muti-Head Attention實(shí)現(xiàn)的,他在SoftMax之前,為序列的不同位置賦予了一個權(quán)重,較后位置的序列權(quán)重為負(fù)無窮,這樣就“蓋住”了靠后的序列。注意:每一個Decod
21、er的輸入還應(yīng)包含之前Decoder的輸出。Attention機(jī)制Encoder:自注意力和前饋網(wǎng)絡(luò)是Encoder的核心部分,下圖是自注意力的計算方式Self-Attention:上圖中,每一個輸入的單詞都分別與Wq,Wk,Wv矩陣相乘得到Q,K,V三個矩陣,Q與K相乘除以輸入維度的開方,再通過SoftMax與V相乘,得到輸出Z。Transformer中使用的Muti-Head Attention指的是使用多個上述結(jié)構(gòu),并且他們之間的參數(shù)是獨(dú)立的。采用多頭注意力機(jī)制目的是通過不同的注意力頭抽取不同的特征。在模型處理每個單詞(輸入序列中的每個位置)時,自注意力使其能夠查看輸入序列中的其他位置以
22、尋找線索,從而有助于更好地對該單詞進(jìn)行編碼。舉例來說,自注意力可以幫助模型理解下句中“他”和“少年”之間的聯(lián)系:Muti-Head合并:如果我們熟悉全連接層,那么應(yīng)該知道全連接層對于輸入的要求是很苛刻的,首先他必須是一個矩陣(或者張量),其次輸入必須是固定維度的。對于Muti-Head,就需要將其輸出的多個矩陣合并再降維。2.后端部分?jǐn)?shù)據(jù)庫Mysql:是一個關(guān)系型數(shù)據(jù)庫管理系統(tǒng),可以運(yùn)行于多個系統(tǒng)上,并且支持多種語言。是一種關(guān)聯(lián)數(shù)據(jù)庫管理系統(tǒng),關(guān)聯(lián)數(shù)據(jù)庫將數(shù)據(jù)保存在不同的表中,而不是將所有數(shù)據(jù)放在一個大倉庫內(nèi),大大增加了速度并提高了靈活性。ES:是一個高拓展和開源的全文搜索和分析引擎,可以準(zhǔn)實(shí)
23、時地存儲、搜索、分析海量的數(shù)據(jù)。同時是非關(guān)系型數(shù)據(jù)庫 ,一個接近實(shí)時的搜索平臺,從索引這個文檔到這個文檔能夠被搜索到只有一個輕微的延遲,不被察覺。Nebula:是一個使用圖結(jié)構(gòu)進(jìn)行語義查詢的數(shù)據(jù)庫。該系統(tǒng)的關(guān)鍵概念是圖,形式上是點(diǎn) (Node 或者 Vertex) 和邊 (Edge 或者 Relationship) 的集合。一個頂點(diǎn)代表一個實(shí)體,比如,某個人,邊則表示兩個實(shí)體間的關(guān)聯(lián)關(guān)系,比如 “你關(guān)注 Nebula ”的關(guān)注關(guān)系。Milvus:是特征向量相似度搜索引擎, 使用異構(gòu)眾核計算處理特征向量,性能優(yōu),支持多種索引方式,使用量化索引、基于樹的索引和圖索引等算法??筛鶕?jù)實(shí)際數(shù)據(jù)規(guī)模和可利
24、用資源,智能調(diào)節(jié)優(yōu)化查詢計算和索引的構(gòu)建過程。Redis:是一個高性能的key-value數(shù)據(jù)庫,具備高級數(shù)據(jù)結(jié)構(gòu) ,為值提供五種可能的數(shù)據(jù)類型:字符串,列表,集合,哈希和有序集合。提供了這些數(shù)據(jù)類型獨(dú)有的操作,并且具有記錄良好的時間復(fù)雜度,內(nèi)置支持異步,非阻塞,主/從復(fù)制,以確保數(shù)據(jù)的高可用性。框架:spring boot可以創(chuàng)建獨(dú)立的Spring應(yīng)用程序,并且基于其Maven或Gradle插件,可以創(chuàng)建可執(zhí)行的JARs和WARs;提供自動配置的“starter”項目對象模型(POMS)簡化了Maven配置;盡可能自動配置Spring的容器。登錄:jwt 全稱 JSON Web Tokens
25、 ,是一種規(guī)范化的 token。是對 token 這一技術(shù)提出一套規(guī)范.縮短了 token 有效時間,定期更新密鑰,使用HttpOnly屬性來防止Cookie被JavaScript讀取,防止 XSS 攻擊竊取 cookie,根據(jù)需要可將用戶 IP 放入 Payload 進(jìn)行校驗。文檔解析:apache poi支持讀寫Excel、Excel OOXML、Word、PowerPoint、Visio格式檔案的功能。pdf解析:apache pdfbox 支持PDF文檔生成的工具庫,它可以用于創(chuàng)建新的PDF文檔,修改現(xiàn)有的PDF文檔,還可以從PDF文檔中提取所需的內(nèi)容。同時支持文檔合并分割:可以把多個
26、PDF文檔合并成單個,也可以把單個PDF分拆成多個PDF文檔,從PDF表單中提取數(shù)據(jù)以及填充PDF表單。數(shù)據(jù)庫工具:mybatis-plus 是一個Mybatis的增強(qiáng)工具,只是在Mybatis的基礎(chǔ)上做了增強(qiáng)卻不做改變,MyBatis-Plus支持所有Mybatis原生的特性,所以引入Mybatis-Plus不會對現(xiàn)有的Mybatis構(gòu)架產(chǎn)生任何影響。MyBatis 增強(qiáng)工具包,簡化 CRUD 操作。啟動加載 XML 配置時注入單表 SQL 操作 。3.前端部分vue3:是一套用于構(gòu)建用戶界面的漸進(jìn)式框架。與其它大型框架不同的是,Vue 被設(shè)計為可以自底向上逐層應(yīng)用。Vue 的核心庫只關(guān)注視
27、圖層,便于與第三方庫或既有項目整合。另一方面,當(dāng)與現(xiàn)代化的工具鏈以及各種支持類庫結(jié)合使用時,Vue 也完全能夠為復(fù)雜的單頁應(yīng)用提供驅(qū)動。Vue也是一套單頁面應(yīng)用(SPA),單頁Web應(yīng)用(single page web application,SPA): SPA 是一種特殊的 Web 應(yīng)用,是加載單個 HTML 頁面并在用戶與應(yīng)用程序交互時動態(tài)更新該頁面的。它將所有的活動局限于一個 Web 頁面中,僅在該 Web 頁面初始化時加載相應(yīng)的 HTML 、 JavaScript 、 CSS 。一旦頁面加載完成, SPA 不會因為用戶的操作而進(jìn)行頁面的重新加載或跳轉(zhuǎn),而是利用 JavaScript 動
28、態(tài)的變換 HTML(采用的是 div 切換顯示和隱藏),從而實(shí)現(xiàn)UI與用戶的交互。在 SPA 應(yīng)用中,應(yīng)用加載之后就不會再有整頁刷新。相反,展示邏輯預(yù)先加載,并有賴于內(nèi)容Region(區(qū)域)中的視圖切換來展示內(nèi)容。antv/G6:是一個圖關(guān)系可視化引擎,以關(guān)系映射為核心,支持常見的布局算法,支持拖拽等交互,支持添加節(jié)點(diǎn)/邊,節(jié)點(diǎn)可以編輯、改變大小、移動、刪除。typescript:在JavaScript的基礎(chǔ)上添加靜態(tài)類型定義構(gòu)建而成。TypeScript 擴(kuò)展了 JavaScript 的句法,所以任何現(xiàn)有的 JavaScript 程序可以不加改變的在 TypeScript 下工作。編譯時它產(chǎn)
29、生 JavaScript 以確保兼容性。element-plus:ui 組件框架庫sass:可進(jìn)行Web頁面樣式設(shè)計,然后再編譯成正常的CSS文件,以供項目使用的統(tǒng)稱,現(xiàn)在有很多css預(yù)處理器,最廣泛的有三種Sass、LESS和Stylus。它在 CSS 語法的基礎(chǔ)上增加了變量 (variables)、嵌套 (nested rules)、混合 (mixins)、導(dǎo)入 (inline imports) 等高級功能,這些拓展令 CSS 更加強(qiáng)大與優(yōu)雅。使用 Sass 以及 Sass 的樣式庫(如 Compass)有助于更好地組織管理樣式文件。可以在CSS中使用變量、簡單的邏輯程序、函數(shù)等等在編程語
30、言中的一些基本特性,可以更加簡潔、適應(yīng)性更強(qiáng)、可讀性更佳,更易于維護(hù)。是一個將腳本解析成CSS的腳本語言,即SassScript。Sass包括兩套語法。最開始的語法叫做“縮進(jìn)語法”,與Haml類似3,使用縮進(jìn)來區(qū)分代碼塊,并且用回車將不同規(guī)則分隔開。而較新的語法叫做“SCSS”,使用和CSS一樣的塊語法,即使用大括號將不同的規(guī)則分開,使用分號將具體的樣式分開。通常情況下,這兩套語法通過.sass和.scss兩個文件擴(kuò)展名區(qū)分開。axios:是基于promise用于瀏覽器與的http服務(wù)端的一種js。相當(dāng)于連接橋,可以自定義瀏覽器與服務(wù)端請求與響應(yīng)的方式。支持瀏覽器與、promise、能夠攔截請
31、求和響應(yīng)、轉(zhuǎn)換請求與響應(yīng)數(shù)據(jù)、能取消請求,自動轉(zhuǎn)換Json格式、瀏覽器端支持CSRF(跨域請求)vue-router:是 官方的路由管理器。它和 的核心深度集成,讓構(gòu)建單頁面應(yīng)用變得易如反掌。包含的功能有:嵌套的路由/視圖表;模塊化的、基于組件的路由配置;路由參數(shù)、查詢、通配符;基于 過渡系統(tǒng)的視圖過渡效果;細(xì)粒度的導(dǎo)航控制;帶有自動激活的 CSS class 的鏈接;HTML5 歷史模式或 hash 模式,在 IE9 中自動降級;自定義的滾動條行為。vuex:是一個專為 應(yīng)用程序開發(fā)的狀態(tài)管理模式。它采用集中式存儲管理應(yīng)用的所有組件的狀態(tài),并以相應(yīng)的規(guī)則保證狀態(tài)以一種可預(yù)測的方式發(fā)生變化。V
32、uex 也集成到 Vue 的官方調(diào)試工具devtools extension(opens new window),提供了諸如零配置的 time-travel 調(diào)試、狀態(tài)快照導(dǎo)入導(dǎo)出等高級調(diào)試功能。二、產(chǎn)品介紹1. 什么是知識圖譜 知識圖譜具備三個特點(diǎn),分別是可檢索;可理解;可解釋知識圖譜技術(shù)可以對各類文本數(shù)據(jù)進(jìn)行采集和管理;并實(shí)現(xiàn)自動化的數(shù)據(jù)采集、清洗整理、分類入庫。作為一種語義網(wǎng)絡(luò)它擁有極強(qiáng)的表達(dá)能力和建模靈活性。在項目實(shí)際使用中,運(yùn)用知識圖譜能力效率高,周期短,業(yè)務(wù)流程標(biāo)準(zhǔn)化程度高,為企業(yè)進(jìn)行智能化知識管理,也降低了人工操作失誤帶來的風(fēng)險,對企業(yè)后續(xù)的業(yè)務(wù)數(shù)據(jù)應(yīng)用、數(shù)據(jù)分析管理都帶來了極大
33、的便利性。2. 優(yōu)勢說明自動化圖譜構(gòu)建實(shí)體的屬性和關(guān)系抽取是信息抽取中的一項基礎(chǔ)任務(wù),現(xiàn)有的關(guān)系抽取數(shù)據(jù)集存在包含類別太少、句子標(biāo)注困難、不易擴(kuò)展等缺陷。通過無監(jiān)督和弱監(jiān)督等方法,構(gòu)建了實(shí)體以及實(shí)體之間的關(guān)聯(lián)關(guān)系。深度挖掘復(fù)雜的關(guān)系通過構(gòu)建行業(yè)知識圖譜,利用圖中的實(shí)體之間的語義網(wǎng)絡(luò)聯(lián)系,我們可以通過構(gòu)建行業(yè)知識圖譜,利用圖中的實(shí)體之間的語義網(wǎng)絡(luò)聯(lián)系,我們可以通過最短路徑、關(guān)系交集、隨機(jī)游走等圖算法,深度挖掘?qū)嶓w間復(fù)雜的網(wǎng)絡(luò)關(guān)系。支持多源異構(gòu)數(shù)據(jù)融合減少企業(yè)和個人的人工成本同時提升效率百分之七十以上。3. 體系架構(gòu)3、 系統(tǒng)功能結(jié)構(gòu)企業(yè)賬戶一級二級登錄無知識庫無知識圖譜企業(yè)圖譜實(shí)體查詢知識搜索系
34、統(tǒng)設(shè)置文檔目錄標(biāo)簽管理管理中心團(tuán)隊管理我的賬戶個人賬戶一級二級登錄無知識庫無知識圖譜企業(yè)圖譜實(shí)體查詢知識搜索管理中心我的賬戶四、系統(tǒng)功能介紹4.1登錄4.1.1用戶登錄A. 簡介:完善信息,進(jìn)行登錄。B. 頁面截圖C. 功能說明:用戶登錄-功能詳情說明用戶登錄【登錄頁面】中填寫企業(yè)名稱、登錄賬號、登錄密碼、選擇區(qū)域、填寫驗證碼后,點(diǎn)擊【登錄】,用戶即可登錄。記住密碼【登錄頁面】中勾選【記住密碼】后,再次登錄【登錄頁面】會有默認(rèn)密碼存在。4.2系統(tǒng)管理4.2.1租戶管理A. 簡介:支持創(chuàng)建企業(yè)及對企業(yè)信息進(jìn)行管理B. 頁面截圖C. 功能說明租戶管理-功能詳情說明篩選條件可根據(jù)組織名稱、狀態(tài)、組織
35、類型進(jìn)行篩選搜索可根據(jù)篩選條件,搜索出符合條件的實(shí)際內(nèi)容重置清空所有篩選條件新增填寫相應(yīng)內(nèi)容,新增企業(yè)信息操作:修改可以修改企業(yè)信息的內(nèi)容操作:新增可以新增當(dāng)前企業(yè)的子公司操作:刪除可以對當(dāng)前企業(yè)進(jìn)行刪除4.2.2團(tuán)隊管理A. 簡介:支持對當(dāng)前企業(yè)管理員及普通員工進(jìn)行管理B. 頁面截圖:C:功能說明團(tuán)隊管理-功能詳情說明篩選條件可根據(jù)用戶名稱、狀態(tài)、用戶類型、創(chuàng)建時間進(jìn)行篩選。搜索可根據(jù)篩選條件,搜索出符合條件的實(shí)際內(nèi)容。重置清空所有篩選條件新增填寫相應(yīng)內(nèi)容,新增員工信息刪除可以刪除員工信息操作:修改可以修改用戶資料及狀態(tài)操作:重置可以重置用戶登錄密碼及華為登錄密碼操作:刪除可以刪除當(dāng)前用戶資
36、料4.3知識庫A.簡介:支持doc/docx/pdf格式文件的批量導(dǎo)入,管理已導(dǎo)入成功的文檔,支持查看文檔基本信息及預(yù)覽圖譜、生成圖譜、圖譜下載、修改圖譜ID、添加圖譜ID、刪除等操作。B.頁面截圖C.功能說明:知識庫-功能詳情說明篩選條件可根據(jù)文檔來源、文檔目錄、文檔標(biāo)簽、區(qū)域、創(chuàng)建時間進(jìn)行篩選及搜索搜索可根據(jù)篩選條件,搜索出實(shí)際內(nèi)容重置清空所有篩選條件操作-預(yù)覽圖譜點(diǎn)擊【預(yù)覽圖譜】智能構(gòu)建(深思維知識圖譜)可以跳轉(zhuǎn)至知識圖譜-企業(yè)圖譜頁面顯示圖譜詳情;普通構(gòu)建(華為知識圖譜)不可以跳轉(zhuǎn)至知識圖譜頁面。操作-圖譜下載可下載此圖譜。操作-生成圖譜點(diǎn)擊【生成圖譜】后,該文檔進(jìn)行圖譜生成,同時狀態(tài)
37、變更為【生成中】操作-添加圖譜ID可以為此圖譜添加ID操作-修改圖譜ID可以為此圖譜修改ID刪除點(diǎn)擊【刪除】后,該文檔與圖譜將被同時刪除。導(dǎo)入可以批量導(dǎo)入doc/docx/pdf格式文件下載幫助可以選擇下載“關(guān)系下載”“信息抽取下載”“知識映射下載”“知識融合下載”的.JSON文件4.4知識圖譜4.4.1企業(yè)圖譜A. 簡介:支持通過文檔目錄、文檔標(biāo)簽、區(qū)域、日期來進(jìn)行篩選來生成知識圖譜。B. 頁面截圖C. 功能說明企業(yè)圖譜-功能詳情說明篩選條件可根據(jù)文檔目錄、文檔標(biāo)簽、區(qū)域、日期進(jìn)行篩選查詢。搜索可根據(jù)篩選條件,搜索出實(shí)際內(nèi)容重置清空所有篩選條件查看實(shí)體/屬性:左鍵單擊實(shí)體,實(shí)體可以展開4.4.2實(shí)體查詢A. 簡介:支持實(shí)體的查詢B. 頁面截圖C.功能說明實(shí)體管理-功能詳情說明篩選條件可根據(jù)文檔名稱、內(nèi)容進(jìn)行篩選查詢。搜索可根據(jù)篩選條件,搜索出實(shí)際內(nèi)容。重置清空所有篩選條件4.4.3知識搜索A. 簡介:支持實(shí)體、文檔名稱查詢,并顯示知識來源及內(nèi)容詳情,支持原文件的預(yù)覽。B. 頁面截圖C. 功能說明知識搜索-功能詳情說明篩選條件可根據(jù)知識搜索進(jìn)行篩選查詢。如:輸入中石化年報符合條件的內(nèi)容將被展示出來
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 影視行業(yè)制作管理與后期剪輯方案
- Unit8 lesson 6教學(xué)設(shè)計 - 2024-2025學(xué)年冀教版英語七年級上冊
- 川教版三上信息技術(shù)3.2 添加角色 教學(xué)設(shè)計
- 全國冀教版信息技術(shù)四年級上冊新授課 第7課 Internet Explorer下載 教學(xué)設(shè)計
- 2025年簡易網(wǎng)站服務(wù)合同5篇
- 19 食物與營養(yǎng) 教學(xué)設(shè)計-2024-2025學(xué)年科學(xué)三年級上冊蘇教版
- 電子支付商戶合作協(xié)議8篇
- 標(biāo)準(zhǔn)駕校培訓(xùn)合同范本8篇
- 河南砂漿環(huán)氧地坪施工方案
- 小學(xué)二年級數(shù)學(xué)100以內(nèi)加減法豎式計算競賽考核口算題帶答案
- 素養(yǎng)立意的試題特點(diǎn)課件
- ommaya囊的護(hù)理教學(xué)課件
- 新時代青少年思想政治教育大中小學(xué)思政課主題宣傳活動PPT
- 某水毀公路維修工程施工方案
- 家庭病房工作制度和人員職責(zé)
- 新款h2夜視移動電源
- 道德與法律的關(guān)系課件
- 《Python數(shù)據(jù)可視化》教學(xué)設(shè)計
- 建設(shè)工程監(jiān)理合同示范文本GF-2018-0202
- 紙箱車間雙色水性印刷機(jī)作業(yè)指導(dǎo)書及質(zhì)量標(biāo)準(zhǔn)
- 2022質(zhì)檢年終工作總結(jié)5篇
評論
0/150
提交評論