【未來(lái)力場(chǎng)】OpenAIGPT最佳實(shí)踐中文大白話編譯解讀版_第1頁(yè)
【未來(lái)力場(chǎng)】OpenAIGPT最佳實(shí)踐中文大白話編譯解讀版_第2頁(yè)
【未來(lái)力場(chǎng)】OpenAIGPT最佳實(shí)踐中文大白話編譯解讀版_第3頁(yè)
【未來(lái)力場(chǎng)】OpenAIGPT最佳實(shí)踐中文大白話編譯解讀版_第4頁(yè)
【未來(lái)力場(chǎng)】OpenAIGPT最佳實(shí)踐中文大白話編譯解讀版_第5頁(yè)
已閱讀5頁(yè),還剩33頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

未來(lái)力場(chǎng)更新?期:未來(lái)力場(chǎng)更新?期:2023-10-2寫在前?這是我們策劃的《提?詞?程祛魅》寫在前?這是我們策劃的《提?詞?程祛魅》主題?會(huì)的附屬產(chǎn)品。來(lái)?OpenAI的官??檔。今年6?份,OpenAI更新了這?篇題?為《GPT最佳實(shí)踐/GPTBestPractice》的?檔;??介紹了?些與ChatGPT交互的技巧,且附有?例。?先,這部分內(nèi)容本來(lái)就是完全免費(fèi)、完全公開的。同時(shí),它是?通俗的英語(yǔ)寫成,并不是?份晦澀難懂的技術(shù)?檔。??都可以通過(guò)掌握這些簡(jiǎn)單的原則,“gettingbetterresultsfromGPTs”—讓GPT為你輸出想要的結(jié)果。因?yàn)槲覀儧](méi)有看到特別好的中?版本,所以我們??對(duì)它進(jìn)?了重新編譯,讓語(yǔ)?風(fēng)格盡量直?,并補(bǔ)充了?些在中?互聯(lián)?環(huán)境?更容易理解的?例,形成了這份“??話編譯解讀版本”的OpenAI:GPT最佳實(shí)踐。歡迎?家閱讀和交流。希望我們編譯這份材料的?標(biāo)能基本達(dá)到,即:為提?詞?程「祛魅」(中譯中:有些付費(fèi)課不必買)。第?部分六?提?詞策略概覽第?部分技巧實(shí)戰(zhàn)感謝下列參與者《提?詞?程祛魅進(jìn)階》主題?會(huì)的Speakers——陳財(cái)貓和Rain。協(xié)助籌辦活動(dòng)的:謝國(guó)希謝?師、以及HackHouse的各位童鞋。OpenAI推薦的相關(guān)資源列表以下均在OpenAICookbook?:lib/?具Promptinglibraries&tools.提?詞?程指南Promptingguides視頻課Videocourses論?Papersonadvancedpromptingtoimprovereasoning另外,OpenAICommunity?也有很多寶貴的討關(guān)于@AI加?切各?各業(yè)的?們?cè)趺蠢??成式AI輔助??的學(xué)習(xí)和?作?這項(xiàng)技能在未來(lái)?定會(huì)成為職業(yè)教育和義務(wù)教育的?個(gè)重要部分。我們希望以Γ內(nèi)容策展」我們希望以Γ內(nèi)容策展」的?式,通過(guò)邀請(qǐng)?jiān)???業(yè)?有充分經(jīng)驗(yàn)的Speakers做主題分享,來(lái)完成這類信息的收集整理和傳遞。附錄OpenAIPlayground是什么,怎么??六個(gè)能提?輸出質(zhì)量的核?提?詞策略SixstrategiesforgettingbetterresultsThisguidesharesstrategiesandtacticsforgettingbetterresultsfromGPTs.Themethodsdescribedherecansometimesbedeployedincombinationforgreaterefect.Weencourageexperimentationto?ndthemethodsthatworkbestforyou.這是?份指南。我們列出了?些策略和技巧,它們或許能幫你從GPT中拿到更好的輸出結(jié)果。我們?勵(lì)Someoftheexamplesdemonstratedherecurrentlyworkonlywithourmostcapablemodel,gpt-4.Ifyoudon'tyethaveaccesstogpt-4considerjoiningthewaitlist.Ingeneral,ifyou?ndthataGPTmodelfailsatataskandamorecapablemodelisavailable,it'so代enworthtryingagainwiththemorecapablemodel.有些?例只在?前地表最強(qiáng)模型gpt-4上?效。記住,模型是第??影響要素。只要你有更強(qiáng)的模型可?,我們?般都會(huì)建議你?更強(qiáng)的模型。WriteclearinstructionsGPTscan’treadyourmind.Ifoutputsaretoolong,askforbriefreplies.Ifoutputsaretoosimple,askforexpert-levelwriting.IfyouIncludedetailsinyourquerytogetmorerelevantanswersAskthemodelAskthemodeltoadoptapersona1.2搞角?扮演,?直很好?Usedelimiterstoclearlyindicatedistinctpartsoftheinput1.3使?分隔符號(hào),明確地把話和話區(qū)分開來(lái)Specifythestepsrequiredtocompleteatask1.4解題步驟,你??最好也負(fù)責(zé)展開Provideexamples1.5多給舉?個(gè)例?Specifythedesiredlengthoftheoutput1.6說(shuō)?下你想要多?的答案disliketheformat,demonstratetheformatyou’dliketosee.ThelessGPTshavetoguessatwhatyouwant,themorelikelyyou’llgetit.清晰地告訴GPT,你想要什么。GPT不會(huì)讀?術(shù)。你不說(shuō),它就猜。所以有時(shí)不是能?不?,就是你沒(méi)說(shuō)清,它沒(méi)猜準(zhǔn)。嫌輸出太??那就直說(shuō),要短的。嫌輸出太簡(jiǎn)單?要求提?,說(shuō)要專家級(jí)嫌格式不好?給它看個(gè)樣。你讓它猜你的?思猜得越少,結(jié)果就越好。02-延伸:“發(fā)閱讀材料”的技巧Instruct02-延伸:“發(fā)閱讀材料”的技巧Instructthemodeltoanswerusingareferencetext2.1要求按閱讀材料作答,不開放答Instructthemodeltoanswerwithcitationsfromareferencetext2.2增加要求:要求GPT直接把閱讀材料?的原?引?出來(lái)ProvidereferencetextGPTscancon?dentlyinventfakeanswers,especiallywhenaskedaboutesoterictopicsorforcitationsandURLs.Inthesamewaythatasheetofnotescanhelpastudentdobetteronatest,providingreferencetexttoGPTscanhelpinansweringwithfewerfabrications.GPT經(jīng)常?編答案。要讀取鏈接的問(wèn)題。我們都知道,最常見(jiàn)的考試題型,是給—?篇閱讀材料,要求閱讀并回答問(wèn)題。純開放式問(wèn)答對(duì)于?和機(jī)器來(lái)說(shuō)都?較難。那么同理那么同理,把你的“閱讀材料”給GPT粘貼過(guò)去,當(dāng)它必須按照材料來(lái)回答的時(shí)候,它就不03-延伸:“任務(wù)拆解03-延伸:“任務(wù)拆解”的技巧Useintentclassi?cationtoidentifyUseintentclassi?cationtoidentifythemostrelevantinstructionsforauserquery.3.1使?意圖分類,來(lái)找到最切題的提?Fordialogueapplicationsthatrequireverylongconversations,summarizeor?lterpreviousdialogue.3.2如果是?段很?的對(duì)話,可以經(jīng)常對(duì)上?做?動(dòng)總結(jié)歸納。Justasitisgoodpracticeinso代wareengineeringtodecomposeacomplexsystemintoasetofmodularcomponents,thesameistrueoftaskssubmittedtoGPTs.Complextaskstendtohavehighererrorratesthansimplertasks.Furthermore,complextaskscano代enbere-de?nedasawork?owofsimplertasksinwhichtheoutputsofearliertasksareusedtoconstructtheinputstolatertasks.SummarizelongdocumentspiecewiseSummarizelongdocumentspiecewiseandconstructafullsummaryrecursively.3.3遇到??檔,主動(dòng)分段總結(jié),遞歸構(gòu)造完整摘要讓GPT做任務(wù)也—樣。直接搞—個(gè)?任務(wù)容易翻車。拆解開來(lái),?個(gè)接?個(gè)做,反?容易些。04-延伸:“04-延伸:“允許思考”的技巧Instructthemodeltoworkoutitsownsolutionbeforerushingtoaconclusion.Useinnermonologueorasequenceofqueriestohidethemodel'sreasoningprocess.4.2內(nèi)?獨(dú)?法:不想暴露推理過(guò)程時(shí)的操作04Γ允許GPT思考?下」GiveGPTstimeto"think"Ifaskedtomultiply17by28,youmightnotknowitinstantly,butcanstillworkitoutwithtime.Similarly,GPTsmakemorereasoningerrorswhentryingtoanswerrightaway,ratherthantakingtimetoworkoutananswer.AskAskthemodelifitmissedanythingonpreviouspasses.4.3最后問(wèn)它?句:哎,你有沒(méi)有漏掉啥算,就不能直接說(shuō)出結(jié)果。但是你知道,你只需要拿紙筆列—下式?就能算出來(lái)。同理。GPT也需要時(shí)間思考,要求它答得太05-延伸:“05-延伸:“利??具”的技巧Useembeddings-basedsearchtoimplemente代cientknowledgeretrieval.5.1?向量數(shù)據(jù)庫(kù)來(lái)輔助知識(shí)庫(kù)檢索(Embeddings-basedsearch)UsecodeexecutiontoperformmoreaccuratecalculationsorcallexternalAPIs.5.2做精確計(jì)算的時(shí)候:執(zhí)?代碼、調(diào)APIGivethemodelaccesstospeci?cfunctions.5.3使?Function-Call,函數(shù)調(diào)?05Γ借助外部的?具」Useexternaltools.CompensatefortheweaknessesofGPTsbyfeedingthemtheoutputsofothertools.Forexample,atextretrievalsystemcantellGPTsaboutrelevantdocuments.AcodeexecutionenginecanhelpGPTsdomathandruncode.Ifataskcanbedonemorereliablyore代cientlybyatoolratherthanbyaGPT,o杋oadittogetthebestofboth.?其他?具幫GPT補(bǔ)短板。?本檢索系統(tǒng),能告訴GPT哪些?檔重要;代碼引擎,助它算數(shù)跑代碼。能??具做得更穩(wěn)、更快,就別全靠GPT。兩者結(jié)合,能有更好的效果。06-延伸:06-延伸:“實(shí)驗(yàn)”技巧Evaluatemodeloutputswithreferencetogold-standardanswers.6.1評(píng)估模型輸出的時(shí)候,需要你弄?個(gè)最?的優(yōu)質(zhì)答案,來(lái)做參考標(biāo)準(zhǔn)06Γ系統(tǒng)地做?些實(shí)驗(yàn)」Testchangessystematically.Improvingperformanceiseasierifyoucanmeasureit.Insomecasesamodi?cationtoapromptwillachievebetterperformanceonafewisolatedexamplesbutleadtoworseoverallperformanceonamorerepresentativesetofexamples.Thereforetobesurethatachangeisnetpositivetoperformanceitmaybenecessarynecessarytode?neacomprehensivetestsuite(alsoknownanasan"eval").?量化則?實(shí)驗(yàn)。要提?Prompt的表現(xiàn),先得確認(rèn)?個(gè)量化標(biāo)準(zhǔn)。注意:有時(shí)調(diào)整了prompt,在個(gè)別的例??確實(shí)效果不錯(cuò),但放?范圍反?更差。所以,想真確定你的動(dòng)作是“有效的”,最好先有?套完整?點(diǎn)的測(cè)試套件(我們管這個(gè)東西叫做"eval")。第?部分技巧實(shí)戰(zhàn)充分的解釋&?例說(shuō)明TacticsEachofthestrategieslistedabovecanbeinstantiatedwithspeci?ctactics.Thesetacticsaremeanttoprovideideasforthingstotry.Theyarebynomeansfullycomprehensive,andyoushouldfeelfreetotrycreativeideasnotrepresentedhere.下?列出的每個(gè)技巧我們都“實(shí)例化”了。希望為你的各種?成?的提供?些思路參考。當(dāng)然,這只是部分使?技巧。我們?勵(lì)你勇于折騰,嘗試各種我們沒(méi)寫的創(chuàng)造性想法。Writeclearinstructions1.1你越講細(xì)節(jié),輸出就越好IncludedetailsinyourquerytogetmorerelevantanswersInordertogetahighlyrelevantresponse,makesurethatrequestsprovideanyimportantdetailsorcontext.Otherwiseyouareleavingituptothemodeltoguesswhatyoumean.為了獲得?度相關(guān)的回復(fù),你最好給模型提供了?切重要的細(xì)節(jié)或上下?。否則,你就得讓模型來(lái)猜測(cè)你的意思了。這么寫可能不太?How這么寫可能不太?HowdoIaddnumbersinExcel?怎么往excel?加數(shù)字?Summarizethemeetingnotes.這么寫可能會(huì)好?些HowdoIadduparowofdollaramountsinExcel?Iwanttodothisautomaticallyforawholesheetofrowswithallthetotalsendingupontherightinacolumncalled"Total".補(bǔ)充?例同樣是制作業(yè)績(jī)表,對(duì)表格內(nèi)容描述的區(qū)別很?,輸出結(jié)果區(qū)別也很?。泛泛的問(wèn)題泛泛的問(wèn)題,答案是相對(duì)隨機(jī)的泛泛的提?詞:我正在Excel?做?個(gè)銷售?員業(yè)績(jī)表。你幫我列?個(gè)模板出來(lái),要計(jì)算每個(gè)銷售超出年平均銷售額的情況。此時(shí)ChatGPT的回答:---------|------|-------|-------------|--------------詳細(xì)的問(wèn)題會(huì)獲得詳細(xì)的答案詳細(xì)的提?詞:我正在Excel?做?個(gè)銷售?員業(yè)績(jī)表。表頭:銷售姓名、第?季度銷售額~第四季度銷售額、全年匯總、各?平均銷售、超出年平均銷售額。我已填?銷售姓名和各個(gè)季度的銷售額,請(qǐng)你幫我寫出最后三列所?公式。此時(shí)ChatGPT的回答:假設(shè)表格的銷售?員姓名位于A列(從A2開始第?季度銷售額到第四季度銷售額位于B到E列銷售"和"超出年平均銷售額"。):=SUM(B2:E2)):=AVERAGE(B2:E2)):=IF(F2>G2,F2-G2,0)----張三|1|5000|60000|=C2-D2張三|2|6000|60000|=C3-D3張三|3|5500|60000|=C4-D4李四|1|4500|55000|=C5-D5李四|2|7000|55000|=C6-D6李四|3|6000|55000|=C7-D7售額"列是計(jì)算每個(gè)銷售?員的年平均銷售額(假60000或55000"超出年平均銷售額"列是計(jì)算每你可以根據(jù)實(shí)際情況調(diào)整模板中的數(shù)據(jù)和公1.2搞角?扮演,?直很好?AskthemodeltoadoptapersonaThesystemmessagecanbeusedtospecifythepersonausedbythemodelinitsreplies.系統(tǒng)消息有什么??可以?來(lái)指定?個(gè)“Persona”。使其更符合特定的應(yīng)?場(chǎng)景。Persona這個(gè)詞在拉丁語(yǔ)?的原義是“?具”??梢钥醋魇悄P筒扇〉奶囟ń?或風(fēng)格,就像戴上了?種特定的“社交?具”,通過(guò)這種“?具”來(lái)與?戶交流。所以Persona不?定是:XX?(?如:賈斯汀?伯)、XX職業(yè)(?如:?個(gè)中學(xué)?師)。也可以是?種“風(fēng)格”。例如正式、幽默、友好等。ChatGPT有?個(gè)默認(rèn)的SYSTEMPrompt:Youareahelpfulassistant.“?個(gè)樂(lè)于助?的助?”也就是ChatGPT默認(rèn)的“?具”/“角?”,所以它會(huì)盡?幫你解決提出的問(wèn)題。你可以在Playground或者像Knit這樣的?具??修改這個(gè)SYSTEMMessage。然后把你正常情況下要提的問(wèn)題寫在USER??。這是?種進(jìn)階的提?詞?法。這么寫可能會(huì)好?些這么寫可能會(huì)好?些WhenIaskforhelptowritesomething,youwillreplywithadocumentthatcontainsatleastonejokeorplayfulcommentineveryparagraph.Writeathankyounotetomysteelboltvendorforgettingthedeliveryinontimeandinshortnotice.Thismadeitpossibleforustodeliveranimportantorder.輸出結(jié)果解讀上?的Prompt,放在GPT-4?輸出的結(jié)果:Dear[Vendor'sName],Wewantedtotakeamomenttoexpressourheartfeltthankstoyouandyourteam.Youguysreallyboltedintoactionwhenweneededyouthemost!Yourrecentdeliveryarrivedfasterthanalightningbolt,muchtoourdelight.It'ssafetosaywewereshocked,butinthemostpleasantwaypossible.Wehadbeenwalkingoneggshells(orshouldwesay,onsteelbolts!)untilwesawyourdeliverytruckpullup.ItcameinanickItcameinanickoftime,justwhenwewereabouttostartamajorproject.Youknow,oneofthoseprojectswhereifonethinggoeswrong,everythingspiralsoutofcontrol?It'slikebuildingahouseofcards,butwithsteelboltsandalotofsweat!Yourtimelydeliverymadeitpossibleforustomeetourdeadlineandmakeourclienthappy,which,let'sbehonest,isataskmorechallengingthantryingto?ndaneedleinahaystack.Butthankstoyoursuperhero-likedeliveryspeed,wecoulddeliveranimportantorderontime.So,here'sabigTHANKYOUgoingouttoyouandyourteam.Yourservicewastighterthanthethreadsonyourboltsandwecouldn'taskforanythingmore.You'vetrulysetahighbar...orshouldwesayahighbolt?Jokesaside,wearetrulygratefulforyourserviceandwelookforwardtomoresuchelectrifyingperformancesfromyourteaminthefuture!Yourssincerely,[YourName]解讀:System的設(shè)定?,要求盡可能地開玩笑,讓收到郵件的供應(yīng)商感覺(jué)到幽默和放松。郵件正??就?了?少兩處雙關(guān)和?處?喻:1."Youguysreallyboltedintoactionwhenweneededyouthemost!""Yourrecentdeliveryarrivedfasterthanalightningbolt..."這?兩句話,笑點(diǎn)在于雙關(guān)。因?yàn)椤癰olt”(螺栓是供應(yīng)商提供的產(chǎn)品,同時(shí)在英語(yǔ)?是多義詞,另?種常見(jiàn)含義是"閃電"。所以這?說(shuō)“?閃電(螺栓)還快”,是在??種夸張的?式贊美他們的快速交付。2."Yourservicewastighterthanthethreadsonyourbolts..."這句的意思是,你們的服務(wù)?你們螺栓的螺紋還要緊密..."贊揚(yáng)供應(yīng)商的服務(wù)質(zhì)量,同時(shí)也開了個(gè)玩補(bǔ)充?例1如果我們?cè)O(shè)定?個(gè)helpfulassistant的反?,?如:?個(gè)“誠(chéng)?搗亂,混淆視聽(tīng)”的佞?。這個(gè)時(shí)候就會(huì)得到說(shuō)反話的回復(fù)。?個(gè)誠(chéng)?搗亂的家伙?個(gè)誠(chéng)?搗亂的家伙?個(gè)熱?助?的?助?Youareahelpfulassistant.Youareahelpfulassistant.具中。將蛋糕放?預(yù)熱的烤箱中,?約烤制30-40分Youareamischievouscourtierwiththeintentofcausingconfusionandnotbeinghelpfulatall.補(bǔ)充?例2也可以這樣:SYSTEMPrompt?來(lái)給進(jìn)去角?+閱讀材料;USERPrompt?來(lái)提具體的寫作要求或問(wèn)題。<材料>插?你的核??章材料</材料>1.3使?分隔符號(hào),明確地把話和話區(qū)分開來(lái)UsedelimiterstoclearlyindicatedistinctpartsoftheinputDelimitersliketriplequotationmarks,XMLtags,sectiontitles,etc.canhelpdemarcatesectionsoftexttobetreateddiferently.分隔符號(hào)(形式可以有很多種,?如三引號(hào)、XML標(biāo)記、章節(jié)標(biāo)題等)的使?,可以幫助模型區(qū)分出不同的?本,有助于提?回復(fù)質(zhì)量。你可能會(huì)想:你可能會(huì)想:區(qū)別不?吧?Forstraightforwardtaskssuchasthese,usingdelimitersmightnotmakeadiferenceintheoutputquality.However,themorecomplexataskisthemoreimportantitistodisambiguatetaskdetails.Don’tmakeGPTsworktounderstandexactlywhatyouareaskingofthem.對(duì)于這樣簡(jiǎn)單的任務(wù),?本只有?段,?不?分隔符,確實(shí)沒(méi)什么區(qū)別。但是,任務(wù)越復(fù)雜,消除任務(wù)細(xì)節(jié)的歧義就越重要。最好不要讓GPT費(fèi)?地嘗試?yán)斫饽愕囊?。這么寫可能會(huì)好?些Summarizethetextdelimitedbytriplequoteswithahaiku."""inserttexthere"""補(bǔ)充?例下?是?個(gè)稍微復(fù)雜?點(diǎn)的?本處理:這么寫可能不太?兩篇?章混在?起這么寫可能不太?兩篇?章混在?起,尤其如果你粘貼過(guò)去的時(shí)候不仔細(xì),換?符不明確的時(shí)候,模型可能會(huì)這么寫可能會(huì)好?些Youwillbeprovidedwithapairofarticles(delimitedwithXMLtags)aboutthesametopic.Firstsummarizetheargumentsofeacharticle.Thenindicatewhichofthemmakesabetterargumentandexplainwhy.造成混淆。造成混淆。?如,模型會(huì)隨機(jī)斷句,或者把兩篇?章理解成?篇。如果區(qū)分不清楚,會(huì)很明顯地影響對(duì)上下?的理解,導(dǎo)致輸出的答案不對(duì)或者不好。所以,分隔符號(hào)有時(shí)是必要的。<article>insert?rstarticlehere</article><article>insertsecondarticlehere</article><?章>此處插?第?篇?章</?章><?章>此處插?第?篇?章</?章>1.4解題步驟,你??最好也負(fù)責(zé)展開SpecifythestepsrequiredtocompleteataskSometasksarebestspeci?edasasequenceofsteps.Writingthestepsoutexplicitlycanmakeiteasierforthemodeltofollowthem.有些任務(wù)稍微復(fù)雜?點(diǎn),最好由你來(lái)指定步驟。明確地寫出步驟,可以使模型更容易地遵循。?例:有?段很?的英??本?例:有?段很?的英??本,希望GPT?中?總結(jié)?下Usethefollowingstep-by-stepinstructionstorespondtouserinputs.Step1-Theuserwillprovideyouwithtextintriplequotes.Summarizethistextinonesentencewithapre?xthatsays"Summary:".Step2-TranslatethesummaryfromStep1intoChinese,withapre?xthatsays"Translation:"."""將原?粘貼在這?"""上?上?prompt實(shí)際的輸出結(jié)果(輸?的?本是OpenAI最新?篇博客?章:ChatGPTcannowsee,hear,andspeak)-Summary:ChatGPTintroducesvoiceandimagecapabilities,allowinguserstoengageinvoiceconversations,showimagestotheassistant,andreceiveassistanceinamoreintuitivemanneracrossvariousreal-lifescenarios.Translation:ChatGPT推出了語(yǔ)?和圖像功能,使?戶能夠進(jìn)?語(yǔ)?對(duì)話,向助?展?圖像,并在各種真實(shí)場(chǎng)景中以-(如果直接要求?中?總結(jié),輸出結(jié)果會(huì)不太?樣。很多情況下輸出質(zhì)量會(huì)稍差?點(diǎn))補(bǔ)充?例這么寫可能不太?這么寫可能不太?<原?>Sometasksarebestspeci?edasasequenceofsteps.Writingthestepsoutexplicitlycanmakeiteasierforthemodeltofollowthem.</原?>這么寫可能會(huì)好?些譯>把直譯?本寫在這?</直譯><改寫>改寫后的?本寫在這?</改寫><原?>Sometasksarebestspeci?edasasequenceofsteps.Writingthestepsoutexplicitlyexplicitlycanmakeiteasierforthemodeltofollowthem.</原?>這?是輸出結(jié)果的區(qū)別:不分步的結(jié)果不分步的結(jié)果直譯+改寫得到的兩段?本(有助于我們直觀地看到區(qū)別,可以再提出改進(jìn)的建議)1.5多給舉?個(gè)例?ProvideexamplesProvidinggeneralinstructionsthatapplytoallexamplesisgenerallymoree代cientthandemonstratingallpermutationsofataskbyexample,butinsomecasesprovidingexamplesmaybeeasier.Forexample,ifyouintendforthemodeltocopyaparticularstyleofrespondingtouserquerieswhichisdi代culttodescribeexplicitly.Thisisknownas"few-shot"prompting.經(jīng)典的少樣本提??法。?家和GPT溝通的時(shí)候,可能會(huì)希望??能寫出適?于所有情況的“通?prompt”。當(dāng)然很難,因?yàn)樯?剛說(shuō)過(guò),能具體還是需要盡量具體。但,有的時(shí)候,舉?個(gè)好例?就夠了,這可能是?形容要求更簡(jiǎn)單的辦法。?如,如果你想讓模型學(xué)會(huì)以某種特定的?式回應(yīng)?戶的問(wèn)題,?這種?式很難清楚地?語(yǔ)?形容。這時(shí)候就直接舉?個(gè)例?(“少樣本”)。例?要好,?且最好?個(gè)例?要類似,因?yàn)槟P??很擅?去尋找規(guī)律(先這樣再那樣最后這樣)。?例:?詩(shī)句?般的語(yǔ)?解釋?個(gè)詞語(yǔ)?例:?詩(shī)句?般的語(yǔ)?解釋?個(gè)詞語(yǔ)Answerinaconsistentstyle.以?致的風(fēng)格回答。Teachmeaboutpatience.告訴我什么是耐?。Theriverthatcarvesthedeepestvalley?owsfromamodestspring;thegrandestsymphonyoriginatesfromasinglenote;themostintricatetapestrybeginswithasolitarythread.Teachmeabouttheocean.告訴我什么是海洋。你可能很難解釋清楚什么是“詩(shī)句?般的語(yǔ)?”。所以舉例?最好?。在SYSTEM??,告訴模型要“保持風(fēng)格?致”,這時(shí)模型的輸出結(jié)果就會(huì)和上?的句式差不多。補(bǔ)充?例李佳琦式回復(fù)能成為流?梗,精髓不在于“陰陽(yáng)”的語(yǔ)?風(fēng)格,或者“反問(wèn)句”的應(yīng)?。?在于:把同樣的邏輯放到不同領(lǐng)域中,產(chǎn)?了類?效果時(shí),會(huì)讓?意識(shí)到這種表達(dá)和邏輯是有問(wèn)題的?例:李佳琦回復(fù)?成器?例:李佳琦回復(fù)?成器1.6說(shuō)?下你想要多?的答案SpecifythedesiredlengthoftheoutputYoucanaskthemodeltoproduceoutputsthatareofagiventargetlength.Thetargetedoutputlengthcanbespeci?edintermsofthecountofwords,sentences,paragraphs,bulletpoints,etc.Notehoweverthatinstructingthemodeltogenerateaspeci?cnumberofwordsdoesnotworkwithhighprecision.Themodelcanmorereliablygenerateoutputswithaspeci?cnumberofparagraphsorbulletpoints.你可以讓模型按照你想要的?度來(lái)輸出?本。我們可以指定的有:?jiǎn)卧~數(shù)、句?數(shù)、段落數(shù)或者要點(diǎn)數(shù)(bulletpoints)。但是:模型其實(shí)是按照token數(shù)量來(lái)算的。所以你說(shuō)“單詞數(shù)”,尤其是漢字?jǐn)?shù),很有可能不太準(zhǔn)。?例:指定?度的?種?法?例:指定?度的?種?法Summarizethetextdelimitedbytriplequotesinabout50words.Summarizethetextdelimitedbytriplequotesin2paragraphs.Summarizethetextdelimitedbytriplequotesin3bulletpoints."""inserttexthere"""??約50個(gè)單詞/漢字來(lái)概括下??三引號(hào)分隔出來(lái)的原?。"""原?"""補(bǔ)充?例:(盡可能地)指定準(zhǔn)確漢字?jǐn)?shù)的?法TokenToken(詞元)數(shù)量是怎么計(jì)算的?可以?OpenAI的Tokenizer?具來(lái)計(jì)算token數(shù)。TheGPTfamilyofmodelsprocesstextusingtokens,whicharecommonsequencesofcharactersfoundintext.Themodelsunderstandthestatisticalrelationshipsbetweenthesetokens,andexcelatproducingthenexttokeninasequenceoftokens.Ahelpfulruleofthumbisthatonetokengenerallycorrespondsto~4charactersoftextforcommonEnglishtext.Thistranslatestoroughly?ofaword(so100tokens~=75words).GPTGPT系列模型通過(guò)使?tokens來(lái)處理?本。token可以被理解成是?本中常見(jiàn)的字符序列。模型能理解這些token之間的統(tǒng)計(jì)關(guān)系,并且擅?在?個(gè)token序列中?成下?個(gè)token。實(shí)?的換算經(jīng)驗(yàn):在普通英??本中,?個(gè)token通常對(duì)應(yīng)于約4個(gè)字符(characters)。這?致相當(dāng)于?個(gè)單詞的3/4(所以100個(gè)token?約等于75個(gè)英?單詞)。如果?的是GPT3.5,要?成?段有字符數(shù)限制的?本??梢裕喊褲h字?jǐn)?shù)?致?lián)Q算成token,然后限定maxtoken的數(shù)值1、“你好嗎”=7個(gè)token;“我很好”=6個(gè)token;2、簡(jiǎn)單算法:?個(gè)token?概是0.5個(gè)漢字?;蛘撸好總€(gè)漢字要耗費(fèi)2~2.5個(gè)token。1000字就是2000~2500個(gè)token左右。六?策略02:Γ給GPT發(fā)閱讀材料」Providereferencetext2.1要求按閱讀材料作答,不開放答InstructthemodeltoanswerusingareferencetextIfwecanprovideamodelwithtrustedinformationthatisrelevanttothecurrentquery,thenwecaninstructthemodeltousetheprovidedinformationtocomposeitsanswer.如果你?邊現(xiàn)成有原?,?且?度合適,建議?帶原?去找GPT。這樣你就可以給GPT指定規(guī)則,讓它使?原?信息來(lái)組成回答。下?的?例?,如果原??找不到對(duì)應(yīng)的信息,就讓GPT說(shuō)不知道(這樣就能很好地避免瞎編)。UseUsetheprovidedarticlesdelimitedbytriplequotestoanswerquestions.Iftheanswercannotbefoundinthearticles,write"Icouldnot?ndananswer."如果上下??度不夠...GiventhatGPTshavelimitedcontextwindows,inordertoapplythistacticweneedsomewaytodynamicallylookupinformationthatisrelevanttothequestionbeingasked.Embeddingscanbeusedtoimplemente代cientknowledgeretrieval.Seethetactic"Useembeddings-basedsearchtoimplemente代cientknowledgeretrieval"formoredetailsonhowtoimplementthis.由于GPT的上下?窗?是有限的,所以最好引??種?法,讓我們能動(dòng)態(tài)地尋找和正在提出的問(wèn)題有關(guān)的信息。基于Embeddings做搜索可以幫助我們?效地檢索知識(shí)。這?是具體?章的鏈接。2.2增加要求:直接把閱讀材料?的原?引出來(lái)InstructthemodeltoanswerwithcitationsfromareferencetextIftheinputhasbeensupplementedwithrelevantknowledge,it'sstraightforwardtorequestthatthemodeladdcitationstoitsanswersbyreferencingpassagesfromprovideddocuments.Notethatcitationsintheoutputcanthenbeveri?edprogrammaticallybystringmatchingwithintheprovideddocuments.如果我們給定的輸??,確實(shí)已經(jīng)包含了相關(guān)的知識(shí),那么要求模型在回答中引?原?,就很容易。引?出來(lái)之后就可以通過(guò)在提供的?檔中進(jìn)?字符串匹配來(lái)程序化驗(yàn)證答案了。在下?這條提?詞?,增加引?原?的要求::(輸出結(jié)果的?較開放作答開放作答2.婚姻中的不快樂(lè):她提到在婚姻中感受到的不給定閱讀材料,并要求引?原?需的信息,則回復(fù)“信息不?”。如果?章<原?>粘貼在這?</原?>下?是給定原?材料后的輸出結(jié)果下?是給定原?材料后的輸出結(jié)果相?直接回答更加“有據(jù)”。輸出結(jié)果:輸出結(jié)果:?你就會(huì)因?yàn)橄脒^(guò)“單?”的?活?離開我們家,我會(huì)需要??過(guò)著偽單親的3.召妓??的指控(“結(jié)果后來(lái)發(fā)現(xiàn)其實(shí)像我這樣的角?,你在很多城市都有這樣的“朋友”。你也有被拍到帶??回家過(guò)有跟我承認(rèn)。你坦承這些是你的問(wèn)題,你沒(méi)有辦法控制??。”、“后來(lái)我發(fā)現(xiàn)你紀(jì)錄了各種你召ji對(duì)象的特征,其中包含了?位?得像我們?邊的?作?員?!保?六大策略03「把復(fù)雜任務(wù)拆解成子任務(wù)」Splitcomplextasksintosimplersubtasks3.1使?意圖分類,來(lái)找到最切題的分類Useintentclassi?cationtoidentifythemostrelevantinstructionsforauserqueryFortasksinwhichlotsofindependentsetsofinstructionsareneededtohandlediferentcases,itcanbebene?cialto?rstclassifythetypeofqueryandtousethatclassi?cationtodeterminewhichinstructionsareneeded.Thiscanbeachievedbyde?ning?xedcategoriesandhardcodinginstructionsthatarerelevantforhandlingtasksinagivencategory.Thisprocesscanalsobeappliedrecursivelytodecomposeataskintoasequenceofstages.Theadvantageofthisapproachisthateachquerywillcontainonlythoseinstructionsthatarerequiredtoperformthenextstageofataskwhichcanresultinlowererrorratescomparedtousingasinglequerytoperformthewholetask.Thiscanalsoresultinlowercostssincelargerpromptscostmoretorun(seepricinginformation).定義復(fù)雜任務(wù):因?yàn)榭赡艿那闆r很多,所以完成這樣?個(gè)任務(wù)需要很多個(gè)獨(dú)?的prompt。這時(shí),我們不?定要寫?個(gè)巨?的prompt。我們可以:設(shè)定好類型,再根據(jù)分類來(lái)調(diào)?prompt。怎么做:?先設(shè)定?個(gè)Γ類型」,保證處理某個(gè)類的任務(wù)時(shí),有專?的prompt。此過(guò)程還可遞歸,幫助把任務(wù)分解為?個(gè)階段。好處:1、每個(gè)查詢僅包含執(zhí)?下??任務(wù)所需的指令,與??個(gè)查詢執(zhí)?整個(gè)任務(wù)相?,準(zhǔn)確率更?。2、token更少,降低成本。?個(gè)客服系統(tǒng)的?例:先進(jìn)?意圖分類?個(gè)客服系統(tǒng)的?例:先進(jìn)?意圖分類,再對(duì)照到匹配的類別下您將獲得客?服務(wù)查詢。將每個(gè)查詢分類為主要類別和次要類別。以json格式提供您的輸出,其中包含以下鍵:主要和-取消訂閱或升級(jí)-添加付款?式-收費(fèi)說(shuō)明-對(duì)指控提出異議-故障排除-設(shè)備兼容性-軟件更新-密碼重置-更新個(gè)?信息-關(guān)賬-賬?安全-產(chǎn)品信息--定價(jià)-??服務(wù)Ineedtogetmyinternetworkingagain.我沒(méi)?了。這?是:先識(shí)別了?戶意圖,把?戶的問(wèn)題分到“故障排除”類別??。然后基于這個(gè)細(xì)的分類,再向模型提供?組更具體的指令,從??選。你將幫助需要“故障排除”的客戶提供服務(wù)。你可以通過(guò)以下?式幫助?戶:如果型號(hào)為MTD-327J,建議他們按下如果型號(hào)是MTD-327S,建議他們拔下并重新插?,然后.如果客戶在重新啟動(dòng)設(shè)備并等待5分鐘后問(wèn)題仍然存在,請(qǐng)通過(guò)輸出{“IT?持請(qǐng)求”}將客戶連接到IT?持。<在此處插?上?的初級(jí)/次級(jí)分類?案>3.2如果在?段?較?的對(duì)話?,給出前情提要可能會(huì)好?些Fordialogueapplicationsthatrequireverylongconversations,summarizeor?lterpreviousdialogueSinceGPTshavea?xedcontextlength,dialoguebetweenauserandanassistantinwhichtheentireconversationisincludedinthecontextwindowcannotcontinueinde?nitely.Therearevariousworkaroundstothisproblem,oneofwhichistosummarizepreviousturnsintheconversation.Oncethesizeoftheinputreachesapredeterminedthresholdlength,thiscouldtriggeraquerythatsummarizespartoftheconversationandthesummaryofthepriorconversationcouldbeincludedaspartofthesystemmessage.Alternatively,priorconversationcouldbesummarizedasynchronouslyinthebackgroundthroughouttheentireconversation.Analternativesolutionistodynamicallyselectpreviouspartsoftheconversationthataremostrelevanttothecurrentquery.Seethetactic"Useembeddings-basedsearchtoimplemente代cientknowledgeretrieval".GPT的上下??度限制是給定的(整個(gè)對(duì)話都包在上下?窗??)。意思就是說(shuō):對(duì)話不能?限?地說(shuō)下去。GPT不可能記住?切。你希望它隨時(shí)都能切換回當(dāng)時(shí)的上下?繼續(xù)聊,這就不太能做到。針對(duì)這個(gè)問(wèn)題,有?種解決辦法。其中?種是時(shí)不時(shí)梳理并總結(jié)之前的對(duì)話內(nèi)容——做個(gè)前情提要。當(dāng)輸?內(nèi)容達(dá)到?個(gè)預(yù)設(shè)的?度閾值時(shí),可以觸發(fā)?個(gè)查詢來(lái)總結(jié)對(duì)話的?部分,然后將之前對(duì)話的總結(jié)納?系統(tǒng)消息的?部分?;蛘?,也可以在整個(gè)對(duì)話過(guò)程中,在后臺(tái)異步總結(jié)之前的對(duì)話。另外?個(gè)辦法是,動(dòng)態(tài)地挑選對(duì)話中與當(dāng)前查詢最相關(guān)的前?內(nèi)容。具體可以參考“利?embedding搜索來(lái)做?效的知識(shí)檢索”。3.3分段總結(jié)??檔,并通過(guò)遞歸?式構(gòu)建完整摘要SummarizelongdocumentspiecewiseandconstructafullsummaryrecursivelySinceGPTshavea?xedcontextlength,theycannotbeusedtosummarizeatextlongerthanthecontextlengthminusthelengthofthegeneratedsummaryinasinglequery.Tosummarizeaverylongdocumentsuchasabookwecanuseasequenceofqueriestosummarizeeachsectionofthedocument.Sectionsummariescanbeconcatenatedandsummarizedproducingsummariesofsummaries.Thisprocesscanproceedrecursivelyuntilanentiredocumentissummarized.Ifit’snecessarytouseinformationaboutearliersectionsinordertomakesenseoflatersections,thenafurthertrickthatcanbeusefulistoincludearunningsummaryofthetextthatprecedesanygivenpointinthebookwhilesummarizingcontentatthatpoint.TheefectivenessofthisprocedureforsummarizingbookshasbeenstudiedinpreviousresearchbyOpenAIusingvariantsofGPT-3.GPT的上下??度是固定的。這意味著:不能在單次對(duì)話中,總結(jié)出,?度超過(guò)“上下??度減去?成摘要?度”,的?本。也就是說(shuō),如果要總結(jié)?篇?常?的?檔,?如?本書。我們可以利??系列的prompt來(lái)分別總結(jié)?檔的每個(gè)章節(jié)。每個(gè)章節(jié)的摘要可以拼接在?起,然后再次進(jìn)?總結(jié),形成“摘要的摘要”。這個(gè)過(guò)程可以遞歸執(zhí)?,直到整個(gè)?檔被完整總結(jié)。如果需要依賴前?章節(jié)的信息來(lái)理解后?的章節(jié),那么可以在總結(jié)某個(gè)點(diǎn)的內(nèi)容時(shí),包含上前情提要。OpenAI之前?GPT-3做過(guò)類似的研究,探討了?這種逐步摘要?法做?本總結(jié)的有效性。摘要的摘要這個(gè)?例是??系列的提?詞來(lái)完成:1摘要的摘要這個(gè)?例是??系列的提?詞來(lái)完成:1.章節(jié)摘要[插?第?章的?本]2.每一章都有摘要了之后,拼接和二次摘要[插?所有章節(jié)的摘要]3.(在需要上文聯(lián)系時(shí))包含前情提要:前情提要:[插?前?章節(jié)的摘要][插?第五章的?本]直接摘要[插?完整的?本]六大策略04「允許GPT思考一下」GiveGPTstimeto"think"4.1給時(shí)間,讓它先??想U(xiǎn)seinnermonologueorasequenceofqueriestohidethemodel'sreasoningprocess.Sometimeswegetbetterresultswhenweexplicitlyinstructthemodeltoreasonfrom?rstprinciplesbeforecomingtoaconclusion.Supposeforexamplewewantamodeltoevaluateastudent’ssolutiontoamathproblem.Themostobviouswaytoapproachthisistosimplyaskthemodelifthestudent'ssolutioniscorrectornot.Butthestudent'ssolutionisactuallynotcorrect!Wecangetthemodeltosuccessfullynoticethisbypromptingthemodeltogenerateitsownsolution?rst.這樣做會(huì)得到更好的結(jié)果:指?模型從基本原理出發(fā)進(jìn)?推理,然后再得出結(jié)論。?如說(shuō),我們想讓模型評(píng)估?個(gè)學(xué)?做的數(shù)學(xué)題。最直接的做法就是:簡(jiǎn)單地問(wèn)模型,學(xué)?的答案對(duì)不對(duì)。就像下表左邊?樣,其實(shí)學(xué)?做錯(cuò)了!但是模型判對(duì)了。如果你像下表右邊?樣,讓模型先??做?遍題,它就能成功地注意到這?點(diǎn)。先讓GPT先讓GPT解題,再判卷,就對(duì)了判錯(cuò)原因:其實(shí)是學(xué)?代進(jìn)去的數(shù)值抄錯(cuò)了,把10寫成了100。但是GPT沒(méi)注意到這?不會(huì)再判錯(cuò)。+這?段prompt:被GPT判錯(cuò)的?道數(shù)學(xué)題-?地成本100美元/平?英尺-我可以以250美元/平?英尺的價(jià)格購(gòu)買太陽(yáng)能電池板2.太陽(yáng)能電池板成本:250x3.維護(hù)費(fèi)?:100000+100x總成本:100x+250x+100000+100x=總成本:100x+250x+100000+100x=450x+1000004.2內(nèi)?獨(dú)?法:不想暴露推理過(guò)程時(shí)的操作Theprevioustacticdemonstratesthatitissometimesimportantforthemodeltoreasonindetailaboutaproblembeforeansweringaspeci?cquestion.Forsomeapplications,thereasoningprocessthatamodelusestoarriveata?nalanswerwouldbeinappropriatetosharewiththeuser.Forexample,intutoringapplicationswemaywanttoencouragestudentstoworkouttheirownanswers,butamodel’sreasoningprocessaboutthestudent’ssolutioncouldrevealtheanswertothestudent.Innermonologueisatacticthatcanbeusedtomitigatethis.Theideaofinnermonologueistoinstructthemodeltoputpartsoftheoutputthataremeanttobehiddenfromtheuserintoastructuredformatthatmakesparsingthemeasy.Thenbeforepresentingtheoutputtotheuser,theoutputisparsedandonlypartoftheoutputismadevisible.上?段說(shuō)了,在回答問(wèn)題之前,讓模型??做?遍推理是很有?的。這?再補(bǔ)充?個(gè)教育的?例:如果場(chǎng)景是輔導(dǎo)課業(yè),可能需要?勵(lì)學(xué)???找出答案。但模型?要??解?遍題。如果把這個(gè)解題過(guò)程輸出出來(lái),可能會(huì)?意中泄露答案。這時(shí)候可以?到“內(nèi)?獨(dú)?法”。意思是,讓模型把那些不想讓?戶看到的內(nèi)容,隱藏地放到?個(gè)結(jié)構(gòu)化的格式?。然后,在把輸出展?給?戶之前,解析?下這段輸出,只展?能給學(xué)?看到的那部分。?致步驟如下:第一步:提出問(wèn)題,并得到模型的解答。(但是不將此解答展現(xiàn)給學(xué)?。)第二步:將學(xué)?的解題法和模型的進(jìn)??較,判學(xué)?解是對(duì)是錯(cuò)。(但是仍然不將信息展現(xiàn)給學(xué)?。)第三步:根據(jù)前兩步的分析,發(fā)送反饋給學(xué)?:錯(cuò)了就給提??勵(lì)改正,對(duì)了就直接?勵(lì)。這?,前兩步有?個(gè)“查詢和分析過(guò)程”。但過(guò)程中內(nèi)容都是隱藏的,學(xué)?只會(huì)看到最后?步的反饋。這部分需要代碼實(shí)現(xiàn),?不是僅僅依賴于單?的prompt。?如說(shuō)可能需要設(shè)計(jì)和實(shí)現(xiàn)?個(gè)系統(tǒng),包含?個(gè)查詢序列的函數(shù)。并且可能需要?個(gè)中間層來(lái)管理這個(gè)過(guò)程。各步驟的?例提?詞如下:輔導(dǎo)課業(yè)的?例輔導(dǎo)課業(yè)的?例步驟2-?較你的題解和學(xué)?的答案,并評(píng)估學(xué)?的答案步驟4-如果學(xué)?的答案不對(duì),提供上?步你想好的提?給學(xué)?。?不是寫“步驟4-...“寫“提?:“。-----------學(xué)?的解題?法:“<插?學(xué)?解答>”補(bǔ)充說(shuō)明:這個(gè)?例?常細(xì)致。第?次看的時(shí)候我就想,OpenAI連這么?的場(chǎng)景都想到了?其實(shí)同樣的原理也可以?在很多其他的?作場(chǎng)景?。?如市場(chǎng)營(yíng)銷?案,有時(shí)也需要讓模型??做?個(gè)推理,最終輸出結(jié)果就可以,把中間的步驟隱去不打出來(lái)。在其他?些應(yīng)?場(chǎng)景?,?如客?服務(wù)、產(chǎn)品推薦或者數(shù)據(jù)分析等,這種策略也能幫助提???體驗(yàn),讓輸出更加直接和易于理解。對(duì)于開發(fā)者和產(chǎn)品經(jīng)理來(lái)說(shuō),能夠控制何時(shí)以及如何展?模型的推理過(guò)程是很重要的,它可以幫助確保系統(tǒng)的輸出符合特定的需求和標(biāo)準(zhǔn)。4.3最后問(wèn)它?句:哎,你有沒(méi)有漏掉啥?Tactic:AskthemodelifitmissedanythingonpreviouspassesSupposethatweareusingamodeltolistexcerptsfromasourcewhicharerelevanttoaparticularquestion.A代erlistingeachexcerptthemodelneedstodetermineifitshouldstartwritinganotherorifitshouldstop.Ifthesourcedocumentislarge,itiscommonforamodeltostoptooearlyandfailtolistallrelevantexcerpts.Inthatcase,betterperformancecano代enbeobtainedbypromptingthemodelwithfollowupqueriesto?ndanyexcerptsitmissedonpreviouspasses.假設(shè)我們讓?語(yǔ)?模型從某份?檔資料中,找出與某個(gè)問(wèn)題有關(guān)的原?摘要,回復(fù)給我們。每列出?個(gè)摘要后,模型需要決定是繼續(xù)列出下?個(gè),還是就此停?。如果資料篇幅很?,模型通常會(huì)過(guò)早地停下來(lái),不會(huì)列完所有相關(guān)的摘要。這就是為什么我們發(fā)現(xiàn)?章?太?,GPT就偷懶的原因。這個(gè)時(shí)候,你就告訴它:哎,還沒(méi)做完呢!這聽(tīng)起來(lái)很傻,但是確實(shí)有效。這么寫可能不太?你沒(méi)做完任務(wù)這么寫可能不太?你沒(méi)做完任務(wù),請(qǐng)重頭來(lái)?遍。(結(jié)果可能還會(huì)停在中間)這么寫可能會(huì)好?些Aretheremorerelevantexcerpts?Takecarenottorepeatexcerpts.Alsoensurethatexcerptscontainallrelevantcontextneededtointerpretthem-inotherwordsdon'textractsmallsnippetsthataremissingimportantcontext.六?策略05Γ借助外部的?具」Strategy:Useexternaltools5.1使?基于embedding的搜索來(lái)實(shí)現(xiàn)?效的知識(shí)檢索Useembeddings-basedsearchtoimplemente代cientknowledgeretrievalAmodelcanleverageexternalsourcesofinformationifprovidedaspartofitsinput.Thiscanhelpthemodeltogeneratemoreinformedandup-to-dateresponses.Forexample,ifauserasksaquestionaboutaspeci?cmovie,itmaybeusefultoaddhighqualityinformationaboutthemovie(e.g.actors,director,etc…)tothemodel’sinput.Embeddingscanbeusedtoimplemente代cientknowledgeretrieval,sothatrelevantinformationcanbeaddedtothemodelinputdynamicallyatrun-time.Atextembeddingisavectorthatcanmeasuretherelatednessbetweentextstrings.Similarorrelevantstringswillbeclosertogetherthanunrelatedstrings.Thisfact,alongwiththeexistenceoffastvectorsearchalgorithmsmeansthatembeddingscanbeusedtoimplemente代cientknowledgeretrieval.Inparticular,atextcorpuscanbesplitupintochunks,andeachchunkcanbeembeddedandstored.Thenagivenquerycanbeembeddedandvectorsearchcanbeperformedto?ndtheembeddedchunksoftextfromthecorpusthataremostrelatedtothequery(i.e.closesttogetherintheembeddingspace).ExampleimplementationscanbefoundintheOpenAICookbook.Seethetactic“Instructthemodeltouseretrievedknowledgetoanswerqueries”foranexampleofhowtouseknowledgeretrievaltominimizethelikelihoodthatamodelwillmakeupincorrectfacts.模型可以利?外部信息來(lái)豐富??的輸?,這樣可以做出更有料、更貼近現(xiàn)實(shí)的回答。?如,?戶問(wèn)到某部電影,給模型加?電影的背景資料(?如誰(shuí)演的、導(dǎo)演是誰(shuí)等)可能會(huì)幫?忙。這?的"嵌?",也就是embedding技術(shù),就是?來(lái)幫助?效找到這些知識(shí),實(shí)時(shí)加?模型的。簡(jiǎn)單來(lái)說(shuō),?本嵌?是基于向量數(shù)據(jù),通過(guò)看?本之間有多“近”實(shí)現(xiàn)的。實(shí)際的操作過(guò)程,可以看OpenAI的Cookbook?的的這個(gè)實(shí)例。5.2需要做精確計(jì)算的時(shí)候:?代碼、或調(diào)APIUsecodeexecutiontoperformmoreaccuratecalculationsorcallexternalAPIsGPTscannotbereliedupontoperformarithmeticorlongcalculationsaccuratelyontheirown.Incaseswherethisisneeded,amodelcanbeinstructedtowriteandruncodeinsteadofmakingitsowncalculations.Inparticular,amodelcanbeinstructedtoputcodethatismeanttoberunintoadesignatedformatsuchastriplebacktics.A代eranoutputisproduced,thecodecanbeextractedandrun.Finally,ifnecessary,theoutputfromthecodeexecutionengine(i.e.Pythoninterpreter)canbeprovidedasaninputtothemodelforthenextquery.Anothergoodusecaseforcodeexecutionisca

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論