論文寫(xiě)作系列課程5-投稿期間_第1頁(yè)
論文寫(xiě)作系列課程5-投稿期間_第2頁(yè)
論文寫(xiě)作系列課程5-投稿期間_第3頁(yè)
論文寫(xiě)作系列課程5-投稿期間_第4頁(yè)
論文寫(xiě)作系列課程5-投稿期間_第5頁(yè)
已閱讀5頁(yè),還剩9頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

導(dǎo)師:John老師講師簡(jiǎn)介:中國(guó)科學(xué)院大學(xué)博士研究生,曾在騰訊和微軟亞洲研究院進(jìn)行NLP相關(guān)的項(xiàng)目。在國(guó)際會(huì)議發(fā)表論文近20篇。5項(xiàng)專利,多次獲得國(guó)家獎(jiǎng)學(xué)金,科研學(xué)術(shù)競(jìng)賽top-3??蒲姓撐膶?xiě)作系列課程投稿期間response書(shū)寫(xiě)NORTHWESTERNPOLYTECHNICALUNIVERSITY內(nèi)容提要目錄Contents如何進(jìn)行Rebuttal

如何Response

回顧總結(jié)如何進(jìn)行Rebuttal何為Rebuttal?--針對(duì)審稿人提出的問(wèn)題進(jìn)行回復(fù),如果有錯(cuò)誤的需要進(jìn)行反駁Rebuttal(申辯)是在論文被審稿人打分之后,留給作者解釋各種問(wèn)題的一個(gè)步驟。審稿人會(huì)根據(jù)論文的情況給出評(píng)審意見(jiàn)并打分,作者則需要根據(jù)這些意見(jiàn)把論文存在的問(wèn)題解釋清楚Rebuttal的目的?--態(tài)度:不卑不亢;目的:提高論文的分?jǐn)?shù)Rebuttal的重要性?--提高中稿率如何進(jìn)行Rebuttal?--案例分析以2022IJCAI為例Rebuttal是解釋審稿人的困惑、回答他們提出的問(wèn)題、以及說(shuō)服對(duì)方提高分?jǐn)?shù)的機(jī)會(huì)。因此其內(nèi)容也應(yīng)該多以事實(shí)為主,而非主觀評(píng)論。如何進(jìn)行RebuttalRebuttal的心路歷程選擇1:分?jǐn)?shù)高,那么恭喜,問(wèn)題不會(huì)太大,如實(shí)回復(fù)即可。選擇2:分?jǐn)?shù)低,心情會(huì)發(fā)生巨大變化。階段1:初讀評(píng)審建議和分?jǐn)?shù)的時(shí)候,會(huì)感到憤怒、失望、難受等情緒。這段時(shí)間內(nèi),建議最起碼完整地快速地將評(píng)論讀一遍,大致了解審稿人因?yàn)槟男c(diǎn)給了低分。階段2:平和。對(duì)評(píng)審意見(jiàn)進(jìn)行細(xì)品。盡管有許多在你看來(lái)非常弱智的評(píng)論,要忍住怒火理性地讀完(一字一句讀完)。1.弄清楚各個(gè)評(píng)審都說(shuō)了什么,哪些重要,哪些不重要2.想辦法解決他們提出來(lái)的問(wèn)題階段3:開(kāi)始寫(xiě)!NORTHWESTERNPOLYTECHNICALUNIVERSITY內(nèi)容提要目錄Contents

如何進(jìn)行Rebuttal

如何Response

回顧總結(jié)如何進(jìn)行ResponseResponse和Rebuttal的區(qū)別?何為Response?大修,小修Response的目的?審稿人角度:MakeyourpaperbetterResponse的重要性?——在論文寫(xiě)的好的基礎(chǔ)上,進(jìn)行response進(jìn)入下一階段如何進(jìn)行Response?——案例分析以2021KBS一區(qū)期刊為例如何進(jìn)行ResponseResponse是對(duì)期刊當(dāng)中審稿中給出的意見(jiàn)進(jìn)行點(diǎn)對(duì)點(diǎn)的回復(fù),并且滿足審稿人的需求。只要期刊讓你自己修改,你能夠?qū)徃迦颂岢龅囊庖?jiàn)進(jìn)行回復(fù)并且完善,那你就有很大可能概率會(huì)被接受。心態(tài)變化不會(huì)像Rebuttal那樣大。因?yàn)槟阒恍枰ミM(jìn)行回復(fù)并且完善就可以了,論文還是有機(jī)會(huì)被接受的。但是Rebuttal不一樣,是一錘子買(mǎi)賣(mài)。怎么寫(xiě)呢?案例分析以2021KBS一區(qū)期刊為例NORTHWESTERNPOLYTECHNICALUNIVERSITY內(nèi)容提要目錄Contents

如何進(jìn)行Rebuttal

如何Response

回顧總結(jié)總結(jié)回顧總結(jié)Response和Rebuttal的意義Response和Rebuttal的區(qū)別Response和Rebuttal的重要性實(shí)戰(zhàn)分析1.矩陣計(jì)算2.概率論、信息論神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識(shí)一、神經(jīng)網(wǎng)絡(luò)與多層感知器

1.1人工神經(jīng)元:MP模型1.2多層感知機(jī)1.3激活函數(shù)(sigmoid/tanh/relu)1.4反向傳播(BP):梯度下降,學(xué)習(xí)率1.5損失函數(shù):MSE/CE;Softmax函數(shù)1.6權(quán)值初始化1.7正則化:L1、L2和Dropout;提及BN/GN/IN/LN二、卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)2.1卷積神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介2.2卷積層2.3池化層2.4Lenet5三、循環(huán)神經(jīng)網(wǎng)絡(luò)3.1rnn循環(huán)神經(jīng)網(wǎng)絡(luò)3.2lstm長(zhǎng)短記憶循環(huán)神經(jīng)網(wǎng)絡(luò)3.3gru門(mén)控循環(huán)單元NLP基礎(chǔ)知識(shí)基本概念預(yù)備知識(shí)形式語(yǔ)言與自動(dòng)機(jī)語(yǔ)料庫(kù)與語(yǔ)言知識(shí)庫(kù)語(yǔ)言模型概率圖模型自動(dòng)分詞、命名實(shí)體識(shí)別與詞性標(biāo)注Python基礎(chǔ)1.編程基礎(chǔ)2.機(jī)器學(xué)習(xí)庫(kù)數(shù)學(xué)基礎(chǔ)PyTorch入門(mén)PyTorch簡(jiǎn)介及安PyTorch人名幣分類(lèi)PyTorch數(shù)據(jù)讀取模塊PyTorch數(shù)據(jù)增強(qiáng)PyTorchModule模塊PyTorch常用網(wǎng)絡(luò)層PyTorch損失函數(shù)PyTorch優(yōu)化器OptimizerPyTorch可視化TensorBoardPyTorch實(shí)用技巧GPU/Finetune/保存加載學(xué)習(xí)路徑NLPBaselineICLR2013,EfficientEstimationofWordRepresentationinVectorSpace,詞向量扛鼎之作EMNLP2014,GloVe:GlobalVectorsforWordRepresentation,最著名的詞向量訓(xùn)練模型之一EMNLP2015,Compositionalcharactermodelsforopenvocabularywordrepresentation,第一篇介紹字符嵌入EMNLP2014,ConvolutionalNeuralNetworkforSentenceClassification,CNN文本分類(lèi)扛鼎之作NIPS2015,Character-levelConvolutionalNetworksforTextClassification,第一篇字符級(jí)別的文本分類(lèi)EACL2017,BagofTricksforEfficientTextClassification,細(xì)粒度文本分類(lèi)模型NIPS2014,SequencetoSequenceLearningwithNeuralNetworks,深度LSTM做神經(jīng)機(jī)器翻譯ICLR2015,NeuralMachineTranslationbyJointlyLearningtoAlignandTranslate,第一篇提出注意力機(jī)制的論文NAACL2016,HierarchicalAttentionNetworksforDocumentClassification,HanAttention用于文本分類(lèi)Coling2018,SGM:SequenceGenerationModelforMulti-labelClassification,第一篇使用序列生成做多標(biāo)簽文本分類(lèi)學(xué)習(xí)路徑數(shù)學(xué)基礎(chǔ)Python基礎(chǔ)神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識(shí)Pytorch快速入門(mén)圖像基礎(chǔ)NLP基礎(chǔ)Step0:選修知識(shí)CV方向NLP方向10篇論文10篇論文Step1:BaselinePaperStep2:細(xì)分專題Paper語(yǔ)義分割;目標(biāo)檢測(cè);GAN;OCR;輕量化網(wǎng)絡(luò)信息抽取;預(yù)訓(xùn)練模型;圖神經(jīng)網(wǎng)絡(luò);句子匹配;機(jī)器翻譯;注:根據(jù)個(gè)人學(xué)習(xí)基礎(chǔ),進(jìn)入不同學(xué)習(xí)階段學(xué)習(xí)路徑Thanks!Morerelatedworkscanbeviewedas

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論