2025新一代人工智能技術(shù)發(fā)展及其應(yīng)用報告-西藏大學(xué)_第1頁
2025新一代人工智能技術(shù)發(fā)展及其應(yīng)用報告-西藏大學(xué)_第2頁
2025新一代人工智能技術(shù)發(fā)展及其應(yīng)用報告-西藏大學(xué)_第3頁
2025新一代人工智能技術(shù)發(fā)展及其應(yīng)用報告-西藏大學(xué)_第4頁
2025新一代人工智能技術(shù)發(fā)展及其應(yīng)用報告-西藏大學(xué)_第5頁
已閱讀5頁,還剩207頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

西藏大學(xué)信息化工作專題講座西藏大學(xué)信息化工作專題講座新一代人工智能技術(shù)發(fā)展及其應(yīng)用新一代人工智能技術(shù)發(fā)展及其應(yīng)用信息科學(xué)技術(shù)學(xué)院藏語智能全國重點實驗室尼瑪扎西目錄第一部分人工智能n人工智能的定義n人工智能與算力第二部分新一代人工智能n大語言模型第三部分人工智能+n人工智能的動力n人工智能與算法n自監(jiān)督學(xué)習(xí)n自然語言處理n人工智能與數(shù)據(jù)n我國的人工智能n強化學(xué)習(xí)n人工智能的定義n人工智能與算力n人工智能的動力n人工智能與算法n人工智能與數(shù)據(jù)n我國的人工智能AI的定義-圖靈測試由英國科學(xué)家阿蘭·一名測試者寫下自己的問題,隨后將問題以純文本的形式(如計算機屏幕和鍵盤)發(fā)送給另一個房間中的一個人與一臺機器測試者根據(jù)他們的回答來判斷哪一個是真人,哪一個是機器A.M.Turing,ComputingMachineryandIntelligence,OxfordUniversityPressonbehalfoftheMindAssociation,1950.AI的定義-7個研究問題1955年達(dá)特茅斯人工智能暑期研討會建議書中所提的7個研究問題提出了“人工智能”這一名詞McCarthyJ,MinskyM,RochesterN,etal.Aproposalforthedartmouthsummerresearchprojectonartificialintelligence,August,31,1955.AIMagazine,2006,27(4):12-14McCarthyJ,MinskyM,RochesterN,etal.Aproposalforthedartmouthsummerresearchprojectonartificialintelligence,August,31,1955.AIMagazine,2006,27(4):12-14AI的定義-達(dá)特茅斯會議會議圍繞“如何讓機器模仿人類學(xué)習(xí)及其他智能行為”展開,探討了通過計算機實現(xiàn)推理、語言理解、模式識別等能力的可能性標(biāo)志著“人工智能”學(xué)科的正式確立會議為AI奠定了基礎(chǔ)理論框架,包括符號推理、機器學(xué)習(xí)、自然語言處理等核心方向,并激發(fā)了后續(xù)算法研究人工智能深蘊于計算機科學(xué)、腦科學(xué)、類腦科學(xué)、認(rèn)知科學(xué)、控制論等基礎(chǔ)科學(xué)之中,直接表現(xiàn)為機器學(xué)習(xí)、計算機視覺、自然語言處理、智能語音、知識圖譜、大模型、智能體、群體智能、具身智能等技術(shù)形態(tài),外化為人形機器人、數(shù)字人、智能終端、智能運載工具、智能軟件等產(chǎn)品形態(tài)人工智能通過類腦計算增強腦力勞動的新能級,通過“機器換人”培育體力勞動的新動能,帶動農(nóng)業(yè)、工業(yè)和服務(wù)業(yè)中的腦力勞動與體力勞動的第四次變革,形成新興的人工智能產(chǎn)業(yè)AI的定義-三大學(xué)派AI發(fā)展以“知識推理”為重點(手工知識)、到以“數(shù)據(jù)統(tǒng)計”為重點(統(tǒng)計學(xué)習(xí))、再到以“計算學(xué)習(xí)”為重點(數(shù)據(jù)智能)徐宗本,姚新,數(shù)據(jù)智能研究前沿,上海交通大學(xué)出版社,2021.AI的動力-計算的4個時代 >>網(wǎng)絡(luò)計算時代>>智能計算時代>算盤——中國發(fā)明最早的計算工具步進計算器——德國人萊布尼茨發(fā)明第一臺自動完成四則運算的裝置(1673年,乘法器)雅卡爾提花織機——法國人雅卡爾發(fā)明“編程”的概念,通過打孔卡片控制印花圖案(1801年)AI的動力-計算的4個時代>>電子計算時代>>網(wǎng)絡(luò)計算時代>描述程序和硬件的底層邏輯將復(fù)雜任務(wù)轉(zhuǎn)化為自動化過程描述程序和硬件的底層邏輯將復(fù)雜任務(wù)轉(zhuǎn)化為自動化過程構(gòu)成基本的邏輯電路和存儲電路的半導(dǎo)體器件2.程序存儲執(zhí)行3.由運算器、控制器、存儲器、I/O設(shè)備組成現(xiàn)代計算技術(shù)基礎(chǔ)布爾代數(shù)馮·諾伊曼架構(gòu)AI的動力-計算的4個時代計算機跨越的第一個分水嶺1970年代開始的第四代計算機:以大規(guī)模、超大規(guī)模集成電路為主要器件;運算速度達(dá)每秒幾百萬次至上億次基本運算。軟件方面出現(xiàn)數(shù)據(jù)庫管理AI的動力-計算的4個時代/電子計算時代>>網(wǎng)絡(luò)計算時代>>智能計算時代TCP/IP協(xié)議讓所有上網(wǎng)設(shè)備(手機/電腦/服務(wù)器)都遵守相同的通信規(guī)則,保證跨設(shè)備通信的暢通。定義了開放的通信標(biāo)準(zhǔn),讓不同公司可以開發(fā)各種網(wǎng)絡(luò)應(yīng)用,而不用擔(dān)心底層通信問題TCP/IP協(xié)議通過協(xié)議分層架構(gòu)、可靠傳輸機制和開放標(biāo)準(zhǔn),構(gòu)建了互聯(lián)網(wǎng)的神經(jīng)中樞提出者羅伯特·卡恩榮獲2004年圖靈獎AI的動力-計算的4個時代/電子計算時代>>網(wǎng)絡(luò)計算時代>>智能計算時代互聯(lián)網(wǎng)以“人”為中心將人使用的計算機與終端與后臺數(shù)據(jù)中心連接,互聯(lián)網(wǎng)的應(yīng)用通過計算機和智能終端與人進行交互互聯(lián)網(wǎng)深刻徹底地改變了人類社會,我們的工作、生活和學(xué)習(xí)幾乎離不開它AI的動力-計算的4個時代/電子計算時代>>網(wǎng)絡(luò)計算時代>>智能計算時代>物理世界的端側(cè)設(shè)備被數(shù)字化、網(wǎng)絡(luò)化和智能化,實現(xiàn)“人、機、物”三元融合除互聯(lián)網(wǎng)外,還有數(shù)據(jù)基礎(chǔ)設(shè)施支持各類終端通過端邊云實現(xiàn)萬物互聯(lián),終端、物端、邊緣、云都嵌入AI,提供大模型智能服務(wù),實現(xiàn)有計算的地方就有AI智能計算帶來了巨量數(shù)據(jù)、人工智能算法的突破和對算力的爆發(fā)性需求!AI的動力-計算的4個時代/電子計算時代>>網(wǎng)絡(luò)計算時代>>智能計算時代>n傳統(tǒng)AI局限于數(shù)字世界的符號推理,而具身智能通過機器人實體與環(huán)境實時交互,實現(xiàn)感知、認(rèn)知、決策和行動一體化揭示了智能的本質(zhì):必須通過身體與環(huán)境的動態(tài)互動來塑造和體現(xiàn)n機器人在工廠與工人協(xié)作時,通過強化學(xué)習(xí)不斷優(yōu)化動作序列,人類AI的動力-計算的4個時代/電子計算時代>>網(wǎng)絡(luò)計算時代>>智能計算時代>計算機跨越了第二個分水嶺n從“有意識思維”過程到“無意識思維”過程的轉(zhuǎn)變這一過程的轉(zhuǎn)變涉及到“莫拉維克悖論”這一過程的轉(zhuǎn)變涉及到“莫拉維克悖論”(Moravec'sParadox)AI的動力-計算的4個時代/電子計算時代>>網(wǎng)絡(luò)計算時代>>智能計算時代>n“莫拉維克悖論”(Moravec'sParadox)計算機善于處理人類覺得困難的問題,而不擅長處理對于人類而言很容易的問題或者說:不同于傳統(tǒng)假設(shè),計算機實現(xiàn)邏輯推理等人類高級智慧只需相對很少的計算能力,而實現(xiàn)感知、運動等低級智慧卻需要巨大的計算資源AI的動力-計算的4個時代/電子計算時代>>網(wǎng)絡(luò)計算時代>>智能計算時代>n人工智能先驅(qū)漢斯·):“讓計算機在智力測試或下棋上中展現(xiàn)出一個成年人的水平是相對容易的,但是要讓計算機擁有如同一個一歲小孩般的感知和行動能力卻是相當(dāng)困難甚至是不可能的。”莫拉維克揭示的這些現(xiàn)象與我們生活A(yù)I的動力-計算的4個時代/電子計算時代>>網(wǎng)絡(luò)計算時代>>智能計算時代>“困難的問題是簡單的,簡單的問題是困難的”n語言學(xué)家和認(rèn)知科學(xué)家史迪芬·平克(StevenPinker)認(rèn)為這是人工智能研究者的最重要發(fā)現(xiàn),在他1995年出版的專著“TheLanguageInstinct”(《語言本能》)中,他寫道:經(jīng)過35年人工智能的研究,人們學(xué)到的主要內(nèi)容是“困難的問題是簡單的,簡單的問題是困難的”AI的動力-計算的4個時代/電子計算時代>>網(wǎng)絡(luò)計算時代>>智能計算時代>這反映了人類思維特征:兩種截然不同的思維方式:n有意識的、謹(jǐn)慎的、有邏輯的語言思維n無意識的、快速的、本能的非言語思維有意識的:當(dāng)你在超市用心算計算所買物品的價格時,使用的是磕絆努力保持身體平衡時,使用的是本能的思維方式,這與邏輯無關(guān)AI的動力-計算的4個時代/電子計算時代>>網(wǎng)絡(luò)計算時代>>智能計算時代>一個例子:我坐在咖啡館里邊看書邊喝咖啡n我坐在咖啡館里,在專心地看著書的同時拿起咖啡杯喝了一口。這可不是件簡單的事,在機器人研發(fā)領(lǐng)域,人們至今仍在絞盡腦汁想讓機器人順利無阻地完成此類任務(wù)n簡單地說這涉及我的視覺系統(tǒng)(可能是靠余光)先掃描整個場景,鎖定杯子,運動皮質(zhì)準(zhǔn)確地協(xié)調(diào)整個軀干、胳膊、前臂和手部的肌肉收縮,當(dāng)手觸碰到杯子時,我的神經(jīng)系統(tǒng)就傳回了有關(guān)杯子重量、空間位置、溫度、手柄光滑度等大量的信息。這些信息通過大腦的海量計算和反饋調(diào)整。最終在幾分之一秒里,使我拿起杯子送到嘴邊并喝下咖啡AI的動力-計算的4個時代/電子計算時代>>網(wǎng)絡(luò)計算時代>>智能計算時代>我們能夠理解人類自身是如何做算數(shù)、代數(shù)和下棋的,但我們不是太了解我們是如何認(rèn)出一只貓的,也不太清楚當(dāng)我們跑過山路時是如何保持身體平衡的AI的動力-計算的4個時代/電子計算時代>>網(wǎng)絡(luò)計算時代>>智能計算時代>機器學(xué)習(xí)通過改變計算機編程方式解決了悖論2020至今通過機器學(xué)習(xí)(深度學(xué)習(xí)人類使計算機對一個龐大的模型進行推理計算,最后得出某個特定問題的可能的解AI的動力-計算的4個時代/電子計算時代>>網(wǎng)絡(luò)計算時代>>智能計算時代>計算機從“服從”到“認(rèn)知”的轉(zhuǎn)變2020至今n直到不久前,我們還在用計算機編程的方法教計算機完成特定任務(wù)(事情)這些程序一步一步地設(shè)計計算機在可能遇到的各種情況下應(yīng)該做什么?怎么做。但是這就意味著我們自己必須在教計算機處理問題之前,首先清楚地理解我們自己處理問題時的思考方式?數(shù)據(jù)是訓(xùn)練AI模型的原材料,包括結(jié)構(gòu)化(表格)、非結(jié)構(gòu)化(文本、圖?算力是運行算法所需的計算能力,依?算法是AI實現(xiàn)智能的邏輯規(guī)則和數(shù)學(xué)模型,如機器學(xué)習(xí)、深度學(xué)習(xí)、強化案例:AlphaFold(算法)通過海量蛋白質(zhì)序列數(shù)據(jù)(數(shù)據(jù))/articles/s41586-024-07487-wAI與數(shù)據(jù)n使AI發(fā)展神速的其中一個原因是大數(shù)據(jù)的收集、存儲、傳輸和分析成為可能一種規(guī)模大到在獲取、存儲、管理、分析方面大大超出傳統(tǒng)數(shù)據(jù)庫軟件工具能力范圍的數(shù)據(jù)集合,具有海量數(shù)據(jù)規(guī)模、高速數(shù)據(jù)流轉(zhuǎn)、多樣數(shù)據(jù)類型和高價值及低價值密度四大特征AI與數(shù)據(jù)nTB、PB級的結(jié)構(gòu)化、非結(jié)構(gòu)化和半結(jié)構(gòu)化數(shù)據(jù)。預(yù)計到今年,全球數(shù)據(jù)使用量將達(dá)到175ZB(1ZB=270Byte)n以前利用統(tǒng)計學(xué)的原理、抽樣的方法分析問題。但是,這顯然沒有全部數(shù)據(jù)更能說明問題n全量數(shù)據(jù)的采集、存儲、處理與分析的需求,推動產(chǎn)生了系列大數(shù)據(jù)技術(shù),其中的重點在基于分布式技術(shù)的數(shù)據(jù)存儲與處理AI與數(shù)據(jù)AI與大數(shù)據(jù)技術(shù)二者聯(lián)系密切深度學(xué)習(xí)n通過大量的樣本數(shù)據(jù)進行模型訓(xùn)練,需要應(yīng)用大數(shù)據(jù)技術(shù)存儲與計算、分析這些數(shù)據(jù)n大數(shù)據(jù)技術(shù)支撐了人工智能算法的實現(xiàn)n人工智能更像是大數(shù)據(jù)技術(shù)中數(shù)據(jù)分析技術(shù)的高級階段。曾經(jīng)的數(shù)據(jù)倉庫、數(shù)據(jù)挖掘技術(shù)AI與數(shù)據(jù)數(shù)據(jù)的重要性怎么強調(diào)都不為過!n如果將機器學(xué)習(xí)算法比作一架機器,那么數(shù)據(jù)就是驅(qū)動這架機器的燃料,沒有燃料驅(qū)動,機器設(shè)計得再精巧也只能是擺設(shè)。而事實上,數(shù)據(jù)確實被譽為未來的“石油”n當(dāng)前,典型個人計算機硬盤的容量為TB量級,而一些大企業(yè)的數(shù)據(jù)量已經(jīng)接近EB量級數(shù)據(jù)估計值、全球不同語種的數(shù)據(jù)不平衡人類目前所有印刷品的數(shù)據(jù)量約為200PB(1PB=250Byte)人類所說過的話的數(shù)據(jù)量約為4ZB(1ZB=270Byte)人類大腦存儲容量相當(dāng)人類大腦存儲容量相當(dāng)于7.6億TB英語數(shù)據(jù)占互聯(lián)網(wǎng)內(nèi)容的50%以上,中文數(shù)據(jù)雖占15%,但方言數(shù)據(jù)稀缺,小語種數(shù)據(jù)更是占比不到0.1%Villalobos,Pablo,etal."Willwerunoutofdata?LimitsofLLMscalingbasedonhuman-generateddata."arXivprepVillalobos,Pablo,etal."Willwerunoutofdata?LimitsofLLMscalingbasedonhuman-generateddata."arXivprepNature在頭版敲響警鐘——AI革命正“吸干”互聯(lián)網(wǎng)數(shù)據(jù)的海洋n研究機構(gòu)EpochAI近日公布的研究預(yù)測,到2028年,用于訓(xùn)練AI模型的典型數(shù)據(jù)集的規(guī)模將達(dá)到公共在線文本總量的估計規(guī)模這意味著,未來幾年內(nèi),AI大模型可能會耗盡可用于訓(xùn)練的高質(zhì)量數(shù)據(jù)資源AI與數(shù)據(jù)深度學(xué)習(xí)需要大量的訓(xùn)練數(shù)據(jù),目前的AI技術(shù)還是數(shù)據(jù)驅(qū)動的n當(dāng)數(shù)據(jù)量較小時,傳統(tǒng)機器學(xué)習(xí)模型的性能與神經(jīng)網(wǎng)絡(luò)模型的差別不大n當(dāng)數(shù)據(jù)規(guī)模越來越大時,神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)更加復(fù)雜的深度學(xué)習(xí)模型更能夠從大數(shù)據(jù)中提?。▽W(xué)習(xí))到有效的特征,模型性能也隨之非常明顯地上升PreetumNakkiran,GalKaplun,YamAI與數(shù)據(jù)n我們今天正在使用的巨大的數(shù)據(jù)集,在幾年前是想得而不能的?,F(xiàn)在,大數(shù)據(jù)無處不在且大得驚人nBigData的單位一般以TB、PB衡量。1PB=1024TBAI與數(shù)據(jù)n若算力是深度學(xué)習(xí)的噴氣式發(fā)動機,數(shù)據(jù)則是燃料。吉爾德定律(Gilder’sLaw)保證了燃料供應(yīng)Gilder’sLaw:主干網(wǎng)帶寬的增長速度至少是運算性能增長速度的三倍,而主干網(wǎng)的網(wǎng)絡(luò)帶寬的不斷增長意味著各種新的網(wǎng)絡(luò)應(yīng)用方式的出現(xiàn)和網(wǎng)絡(luò)用戶的使用費用的不斷下降(CERNET主干網(wǎng)總帶寬3.15T以上,中國電信主干網(wǎng)總帶寬458T)AI與算力算力:就是單位時間內(nèi)硬件能夠完成的某種運算的量。比如浮點計算、整數(shù)計算等):):):FLOPS(floating-pointoperations):哈希率:比特幣網(wǎng)絡(luò)處理能力的度量單位,即CPU計算哈希函數(shù)輸出的速度。比特幣網(wǎng)絡(luò)必須為了安全目的進行密集的數(shù)學(xué)和加密操作。例如,AI與算力訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型,使它像人一樣識別圖片或理解人類語言所需的算力是十分驚人的。深度學(xué)習(xí)中的模型權(quán)重值調(diào)整涉及大規(guī)模的“矩陣反演”數(shù)學(xué)運算模型訓(xùn)練訓(xùn)練一個大模型,甚至需要1024次的浮點數(shù)運算。這就要求計算機的算力足夠強大AI與算力為什么現(xiàn)在AI發(fā)展的如此神速?曾經(jīng)的摩爾定律(Moore'slaw)Moore'slaw:稱為計算機第一定律,指IC上可容納的晶體管數(shù)目,約每隔18/24個月便會增加一倍,性能也將提升一倍神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)——感知機是上世紀(jì)50年代提出的AI與算力n今天,摩爾定律的樂觀已不復(fù)存在,CPU性能的提升降至每年不足3%,實現(xiàn)性能翻倍需20年現(xiàn)在芯片線路可達(dá)2~3納米級別,相n量變引起質(zhì)變,產(chǎn)生諸如分子臺積電3納米工藝:每平方毫米集成2.5億晶體管(指甲蓋大約1平方n散熱問題AI與算力nCPU性能提升速度大幅放緩,出現(xiàn)八核、十六核、三十二核CPU。通過多核提高CPU性能的方式并沒有從根本上解決問題n功耗問題n散熱問題n軟件支持問題AI與算力AI加速發(fā)展和黃氏定律n以英偉達(dá)(NVIDIA)公司創(chuàng)始人黃仁勛名字命名的定律——黃氏定律(Huang’sLaw)對AI性能的提升作出預(yù)測Huang’sLaw:GPU將推動AI性能實現(xiàn)逐年翻倍AI與算力CPU與GPU的區(qū)別nCPU:數(shù)學(xué)教授需要對圖像中的每個像素進行相同的運算。圖像一般都會有上百萬個像素。CPU的串行運算效率CPU內(nèi)部cache以及控制部分占據(jù)了很大面積,計算單元占比很少;GPU控制單元很簡單,大部分空間被計算單元占據(jù),因此CPU的核數(shù)有限,而GPU則輕松堆出上千核AI與算力CPU與GPU的區(qū)別nCPU:不同的核可以執(zhí)行不同的機器指令,如CoreA在運行Word線程的同時CoreB可以運行Browser線程,所謂nGPU:所有核必須整齊劃一地運行相同的機器指令,只是可以操作不同的數(shù)據(jù)nGPU:絕不是用來取代CPU的,CPU只是把一些GPU非常擅長的事情交給它,GPU僅僅是充當(dāng)分擔(dān)CPU工作的配角AI與算力無論CPU還是GPU,其生產(chǎn)過程中都需要最重要的設(shè)備——光刻機目前最先進的光刻機是荷蘭ASML公司生產(chǎn)的High-NAEUV光刻機,支持2nm制程量產(chǎn),通過多重曝光技術(shù)可進一步延伸至1nm甚至0.5nm“卡脖子”問題n荷蘭ASML的EUV光刻機自2019年起,被禁止向中國出口,該設(shè)備用于7nm及以下先進制程芯片制造n美國通過《出口管理條例》要求對涉及3nm及以下打破枷鎖上海微電子的SSX600系列已實現(xiàn)90nm制程量產(chǎn),28nm光刻機進入產(chǎn)線驗證階段AI與算力n過去只有超級計算機才能完成的計算、幾年前還無法企及的計算速度在今天已成為家常便飯n由國防科技大學(xué)和國家超級計算天津中心聯(lián)合研制的“天河”新一代超算系統(tǒng),搭載自研飛騰CPU、天河高速互聯(lián)通信技術(shù)和麒麟操作系統(tǒng),持續(xù)穩(wěn)定算力超1018FLOPS“天河二號”超級計算機“天河二號”超級計算機算力曾達(dá)30.65PFlops一般的GPU服務(wù)器算力在1000GFLOPS左右AI與算力nCPUvsGPUvsTPUvsNPUvsQPU……在AI的算力中,有哪些計算的處理器?低高中中高低低AI訓(xùn)練、圖形NVIDIAXu,Y.,Wang,Q.,An,Z.,Wang,F.,Zhang,L.,Wu,Y.,Dong,F.,Qiu,C.-W.,Liu,X.,Qiu,J.,Hua,K.,Su,W.,Xu,H.,Han,Y.,Cao,X.,Liu,E.,Fu,C.,Yin,Z.,Liu,M.,Roepman,R.,Dietmann,S.,Virta,M.,Kengara,F.,Huang,C.,Zhang,Z.,Zhang,L.,Zhao,T.,Dai,J.,Yang,J.,Lan,L.,Luo,M.,Huang,T.,Liu,Z.,Qian,S.,An,T.,Liu,X.,Zhang,B.,He,X.,Cong,S.,Liu,X.,Zhang,W.,Wang,F.,Lu,C.,Cai,Z.,Lewis,J.P.,Tiedje,J.M.,Zhang,J.,ArtificialIntelligence:APowerfulParadigmforScientificResearch,TheInnovation(2021),doi:/10.1016/j.xinn.2021.100179.人工智能技術(shù)萌芽階段1985年,Judea1985年,JudeaPearl提出了了通過誤差反向傳播(BP)來訓(xùn)練人工智能技術(shù)沉淀積累階段人工智能技術(shù)快速發(fā)展階段2022年11月,OpenAI發(fā)布2023年2月,Meta開源大語言2022年11月,OpenAI發(fā)布2023年2月,Meta開源大語言2023年3ChatGPT模型AI與算法:神經(jīng)網(wǎng)絡(luò)-追根溯源大腦讓人類成為萬物之靈,而人類對大腦的深層次探索AI與算法:神經(jīng)網(wǎng)絡(luò)-發(fā)展簡史n神經(jīng)網(wǎng)絡(luò)起源于上個世紀(jì)四十年代。1943年時神經(jīng)科學(xué)家麥卡洛克(McCulloch)和數(shù)學(xué)家皮茲(Pitts)發(fā)表論文《神經(jīng)活動中內(nèi)在思想的邏輯演算》,提出了MCP模型McCulloch,WarrenS.,andWalterPitts."AlogicalcalculusoftheAI與算法:神經(jīng)網(wǎng)絡(luò)-發(fā)展簡史MCP模型架構(gòu)雖然相對簡單,但是具有里程碑意義ΣΣ接受多個輸入(x1,x2,x3,...)AI與算法:神經(jīng)網(wǎng)絡(luò)-發(fā)展簡史n1958年,計算機科學(xué)家弗蘭克·羅森布拉特提出由兩層神經(jīng)元構(gòu)建的網(wǎng)絡(luò),并將之命名為感知機(perceptron)基本擁有現(xiàn)今神經(jīng)網(wǎng)絡(luò)主要構(gòu)件與思想。包括自動學(xué)習(xí)權(quán)重、梯度下降算法、優(yōu)化器、損失函數(shù)等,一定程度上推動神經(jīng)網(wǎng)絡(luò)發(fā)展Rosenblatt,Frank."Theperceptron:aprobabilisticmodelforinforAI與算法:神經(jīng)網(wǎng)絡(luò)-發(fā)展簡史·作中證明了感知機本質(zhì)上是一個線性模型,其連最基本的異或問題都無法解決yy=kx+bx1x1XOR00000010111001111110Minsky,Marvin,andSeymourPapert."AnintroductionAI與算法:神經(jīng)網(wǎng)絡(luò)-發(fā)展簡史··BP算法Rumelhart,DavidE.,GeoffreyAI與算法:神經(jīng)網(wǎng)絡(luò)-發(fā)展簡史n在層與層之間的傳播過程中引入了Sigmoid激活函數(shù),為神經(jīng)網(wǎng)絡(luò)引入了非線性能力,改良了感知機無法解決異或問題的缺陷為神經(jīng)網(wǎng)絡(luò)引入了非為神經(jīng)網(wǎng)絡(luò)引入了非了建模能力。事實上,額外的隱藏層并不能提升輸入和輸出之間復(fù)雜關(guān)系的建模能力左圖是一個以Sigmoid作為隱藏層激活函數(shù)的兩層神經(jīng)網(wǎng)不斷地改變目標(biāo)函數(shù)的形狀。AI與算法:淺層學(xué)習(xí)與深度學(xué)習(xí)神經(jīng)元神經(jīng)元->感知機淺層學(xué)習(xí)->深度學(xué)習(xí)AI與算法:深度神經(jīng)網(wǎng)絡(luò)模型-3位奠基人n2018年的圖靈獎頒給三位AI巨頭GeoffreyHinton(杰弗里●辛頓)、YannLeCun(楊●立昆)以及YoshuaBengio(約書亞●本吉奧深度神經(jīng)網(wǎng)絡(luò)DNN)·霍普菲爾德(JohnJ.Hopfield)與杰弗里·頓(GeoffreyE.Hinton)因“使用物理學(xué)訓(xùn)練人工智能神經(jīng)網(wǎng)絡(luò)”獲諾貝爾物理學(xué)獎AI與算法:深度神經(jīng)網(wǎng)絡(luò)模型-3位奠基人“卷積神經(jīng)網(wǎng)絡(luò)(CNN)之父”,提出了首個正自然語言處理領(lǐng)域的先驅(qū),提出了基于神經(jīng)網(wǎng)絡(luò)的語言模型(如神經(jīng)概率語言模型),并推動了AI與算法:深度神經(jīng)網(wǎng)絡(luò)模型-CNN卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種專門為處理具有網(wǎng)格結(jié)構(gòu)數(shù)據(jù)(如圖像)而設(shè)計的深度學(xué)習(xí)模型n卷積層:利用卷積核提取輸入數(shù)據(jù)中的特定特征n池化層:主要功能是對特征圖進行下采樣,以減少數(shù)據(jù)量和計算量n全連接層:將提取到的特征進行整合,以完成分類或回歸任務(wù)卷積層池化層卷積層池化層全連接層輸出層卷積層池化層卷積層池化層全連接層輸出層AI與算法:深度神經(jīng)網(wǎng)絡(luò)模型-RNN循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是一種專門處理序列數(shù)據(jù)的深度學(xué)習(xí)模型,其核心特點是通過循環(huán)連接保留歷史信息,從而捕捉數(shù)據(jù)中的長期依賴關(guān)系n隱藏層的輸出不僅傳遞給輸出層,還反饋回自身,形成時間維度n理論上,RNN可以記住任意長時間的信息,但實際中受梯度消失IanGoodfellow,YoshuaBengioAI與算法:深度神經(jīng)網(wǎng)絡(luò)模型-LSTM長短時記憶網(wǎng)絡(luò)(LSTM)是一種特殊的RNN,主要應(yīng)用于序列任務(wù),解決了RNN在處理長序列時的梯度消失或梯度爆炸問題輸出門IanGoodfellow,YoshuaBengioPyTorch是由Facebook的AIPyTorch是由Facebook的AI研究團隊開發(fā)的開源深度學(xué)習(xí)其簡潔易用的API和動態(tài)計算圖的特性受到了廣大研究TensorFlowTensorFlow是由Google開發(fā)和維護的布。它最初是為了滿足Google內(nèi)部很快就成為了全球范圍內(nèi)最受歡迎的API復(fù)雜度有強大的可視化工具可通過第三方庫實現(xiàn)可視化理論研究萌芽:早期聚焦機理論研究萌芽:早期聚焦機“863”計劃首次將AI納入互聯(lián)網(wǎng)驅(qū)動:百度、阿里、騰訊布局人工智能,推出語技術(shù)突破:2010年后深度學(xué)別、騰訊優(yōu)圖人臉識別技術(shù)生態(tài)擴張:開源鴻蒙、開源歐拉等開源社區(qū)推動技術(shù)普《2025年中國人工智能計算力發(fā)展評估報告》《2025年中國人工智能計算力發(fā)展評估報告》n核心技術(shù)與創(chuàng)新突破AIforScience:藥物研發(fā)(如晶泰科技量子AI:本源量子與中科大合作開發(fā)量子機器學(xué)習(xí)算法,適配量子硬件機器視覺:??低暟卜老到y(tǒng)、醫(yī)療影像診斷(如聯(lián)影AI)實現(xiàn)毫米多模態(tài)融合:華為鴻蒙分布式能力支持跨設(shè)備協(xié)同,阿里云ET實現(xiàn)綠色計算:液冷技術(shù)、異構(gòu)計算降低能耗,算力效率提困境一:中國在AI高端人才數(shù)量、AI基礎(chǔ)算法創(chuàng)新、AI基座大模型能力、基座大模型困境二:高端算力產(chǎn)品禁售、高端芯片工藝長期被卡。國內(nèi)可滿足量產(chǎn)的工藝節(jié)點困境四:AI應(yīng)用于行業(yè)時成本、門檻居高不下。從互聯(lián)網(wǎng)行業(yè)遷移至非互聯(lián)網(wǎng)行業(yè)n中國人工智能發(fā)展的道路選擇選擇一:統(tǒng)一技術(shù)體系走閉源封閉,還是開源開放的道路?追趕兼容美國主導(dǎo)的A體系:大多數(shù)互聯(lián)網(wǎng)企業(yè)走GPU/CUDA兼容道路,很多芯片領(lǐng)域的創(chuàng)業(yè)企業(yè)在生態(tài)構(gòu)建上也是盡量與CUDA兼容,該道路較易實現(xiàn)構(gòu)建專用封閉的B體系:在專用領(lǐng)域構(gòu)建企業(yè)封閉生態(tài),基于國產(chǎn)成熟工藝生產(chǎn)芯片,關(guān)注特定領(lǐng)域的垂直大模型,采用領(lǐng)域?qū)S懈哔|(zhì)量數(shù)據(jù)。缺點:封閉,無法凝聚國內(nèi)大多數(shù)力量,難以實現(xiàn)全球化構(gòu)建全球共建開源開放的C體系:用開源打破生態(tài)壟斷,降低企業(yè)擁有核心技術(shù)的門檻。用開放形成統(tǒng)一的技術(shù)體系,我國企業(yè)與全球化力量聯(lián)合構(gòu)建基于國際標(biāo)準(zhǔn)的統(tǒng)一智能計算軟件棧。共享高質(zhì)量數(shù)據(jù)庫,共享開源基座大模型n中國人工智能發(fā)展的道路選擇選擇二:拼算法模型,還是拼新型基礎(chǔ)設(shè)施?我國80%的中小微企業(yè)需要低門檻、低價格的智數(shù)據(jù)已成為國家戰(zhàn)略信息資源。數(shù)據(jù)數(shù)據(jù)已成為國家戰(zhàn)略信息資源。數(shù)據(jù)具有資源要素與價值加工兩重屬性,我國應(yīng)繼續(xù)加大力度建設(shè)國家數(shù)據(jù)樞紐與數(shù)據(jù)流通基礎(chǔ)設(shè)施。AI大模型就是數(shù)據(jù)空間的一類算法基礎(chǔ)設(shè)施。以通用大模型為基座,AI大模型就是數(shù)據(jù)空間的一類算法基礎(chǔ)設(shè)施。以通用大模型為基座,構(gòu)建大模型研發(fā)與應(yīng)用的基礎(chǔ)設(shè)施,支撐廣大企業(yè)研發(fā)領(lǐng)域?qū)S么竽P鸵惑w化算力網(wǎng)建設(shè)在推動算力的基礎(chǔ)設(shè)施化上發(fā)揮了先導(dǎo)作用。中國方案的算力基礎(chǔ)設(shè)施化需實現(xiàn)“兩低一高”:降低使用成本和門檻,提供普適的高通量、高品質(zhì)智能服務(wù)。在供給側(cè)降低成本,讓中小企業(yè)能消費、愿開發(fā);消費側(cè)降低門檻,公共服務(wù)要易獲取、易使用。服務(wù)效率要低熵高通量,高并發(fā)時系統(tǒng)也能高效運行,“算得多”對中國意義重大。n中國人工智能發(fā)展的道路選擇選擇三:AI+著重賦能虛擬經(jīng)濟,還是發(fā)力實體經(jīng)濟?實體經(jīng)濟(制造業(yè)占比27%)虛擬經(jīng)濟(制造業(yè)GDP占比11%)AI應(yīng)用領(lǐng)域智能制造、工業(yè)機器人、新能源虛擬現(xiàn)實、元宇宙、區(qū)塊鏈、大模型代表性行業(yè)裝備制造、醫(yī)藥中國要走適合自己的AI賦能實體經(jīng)濟高質(zhì)量發(fā)展之路nChatGPT與DeepSeek——維特根斯坦《邏輯哲學(xué)論》大語言模型(LLM)是指通過海量數(shù)據(jù)訓(xùn)練、具有超大規(guī)模參數(shù)的預(yù)訓(xùn)練人工智能模型,其核心在于通過深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)數(shù)據(jù)中的通用規(guī)律,實現(xiàn)跨任務(wù)、跨領(lǐng)域的智能處理能力大語言模型的核心技術(shù)根植于自監(jiān)督學(xué)習(xí)、強化學(xué)習(xí)和Transformer架構(gòu)中n自監(jiān)督學(xué)習(xí)為起點:通過無標(biāo)注數(shù)據(jù)預(yù)訓(xùn)練,賦予模型基礎(chǔ)智能,如n強化學(xué)習(xí)為終點:通過人類反饋微調(diào),將基礎(chǔ)智能轉(zhuǎn)化為符合人類需自監(jiān)督學(xué)習(xí)是一種利用無標(biāo)注數(shù)據(jù),通過設(shè)計代理任務(wù)自動生成監(jiān)督信號進行訓(xùn)練的機器學(xué)習(xí)方法,無需人工標(biāo)注數(shù)據(jù)自監(jiān)督學(xué)習(xí)可以緩解數(shù)據(jù)標(biāo)注成本,提升模型泛化性,更加適應(yīng)開放場景而監(jiān)督學(xué)習(xí)依賴人工標(biāo)注數(shù)據(jù),模型直接通過標(biāo)注信號優(yōu)化強化學(xué)習(xí)(ReinforcementLearning)是一種機器學(xué)習(xí)方法,智能體(Agent)通過與環(huán)境的交互,基于獎勵(Reward)和懲罰n環(huán)境(Environment):智能體所處的動態(tài)n策略(Policy智能體從狀態(tài)到動作的映射n價值函數(shù)(ValueFunction):評估狀態(tài)或Sutton,R.S.;andBarto,A.G.2018.Reinforcementlearning:Anintroduction.MITpress基于人類反饋的強化學(xué)習(xí)(RLHF)ZhaoWX,ZhouK,LiJ,etal.Asurveyoflargelanguagemodels[J].arXivpreprintarXiv:2303.18223,2023.特卡洛樹與價值/Mnih,Volodymyr,etal."Asynchronousmethodsfordeepreinforcementlearning."IMnih,Volodymyr,etal."Playingatariwithdeepreinforcementlearning."arXivpreprintarXiv:1312.5602Schulman,John,etal."Proximalpolicyoptimizationalgorithms."arXivpreprintarXiv:1707.06347(2017).Transformer最初用于機器翻譯任務(wù),成為自然語言處理領(lǐng)域的里程碑式突破,并推動了大模型時代的到來Transformer=編碼器(encoder)+解碼器(decoder)編碼器:處理輸入序列(如源語言句子解碼器:生成目標(biāo)序列(如目標(biāo)語言句子),注意力機制:使神經(jīng)網(wǎng)絡(luò)在每個時間步只聚焦于某些重要/相關(guān)元素從統(tǒng)計語言模型到大語言模型泛化目標(biāo)任務(wù)解決任務(wù)解決擴展語言模型依據(jù)提示完成解決豐富基于真實世界的任務(wù)任務(wù)解決特定任務(wù)輔助無偏任務(wù)特征學(xué)習(xí)特定任務(wù)輔助無偏任務(wù)特征學(xué)習(xí)神經(jīng)語境建模語境感知表征語音大模型語音大模型統(tǒng)計學(xué)方法在特定任務(wù)中輔助大語言模型大語言模型預(yù)訓(xùn)練語言模型神經(jīng)語言模型統(tǒng)計語言模型1990s201320182020目前OpenAIGPT4目前OpenAIGPT4主要支持20余種DeepSeeknDeepSeek-V3基本原理DeepSeek依托算法創(chuàng)新和算力優(yōu)化,在開源數(shù)據(jù)上實現(xiàn)多項頂尖能力n訓(xùn)練成本550萬$nDeepSeek進化路徑!!!!DeepSeekDeepSeek-R1重要意義再次迎來“ChatGPT”時刻為什么DeepSeek會引起全球性的科技震撼?“有限算力+算法創(chuàng)新”的發(fā)展模式是突破算力卡脖子的關(guān)鍵未來應(yīng)聚焦“高效”:圍繞高效模型架構(gòu)、高效強化學(xué)習(xí)、高?高效訓(xùn)練-提升數(shù)據(jù)利用效率?高效思考-提升思考信息密度?低位寬高效并行框架?訓(xùn)推一體的強化學(xué)習(xí)框架人腦約有1000億個神經(jīng)元、1000萬億個突觸。而DeepSeek-V3的模型參數(shù)量為6710億,GPT4的模型參數(shù)量為1萬億,數(shù)量級上與人腦有很大的差距。讓人工智能像人一樣思考,還有很長的路要走,擁有人一樣的智能更是路漫漫!n據(jù)估算,GPT4的訓(xùn)練成本約為1億美元,訓(xùn)練耗電相當(dāng)于1000戶家庭5至6年的用電量。如此巨大的開銷,加上日益枯竭的訓(xùn)練數(shù)據(jù),是否說明“數(shù)據(jù)驅(qū)動,算力堆砌”的人工智能開發(fā)路徑是不可持續(xù)的?n人工智能未來的發(fā)展方向是什么呢?具身智能?量子AI?世界模型?nAI4EducationnAI4SciencenAI+新質(zhì)生產(chǎn)力nAI正在接替部分職業(yè)AI4Education識識教學(xué)教學(xué)以上問題,傳統(tǒng)課堂難以有效解決AI4Education工具層面AI4Education如何適應(yīng)AI發(fā)展?如何實現(xiàn)AI賦能教育教學(xué)?如何改?技術(shù)上數(shù)智化教學(xué)AI+AI+實驗40AI+實驗40教學(xué)評價教學(xué)環(huán)境教學(xué)AI+課程教學(xué)設(shè)計教學(xué)設(shè)計教學(xué)AI賦能教學(xué)手段過程教學(xué)AI賦能教學(xué)手段教學(xué)管理教學(xué)教學(xué)管理教學(xué)方法引導(dǎo)教師合理使用AI,鼓勵開展探索研究AI4Education角色關(guān)系:AI構(gòu)建三維互動網(wǎng)絡(luò)AI4Education深度利用:三大場景突破?思維鏈可視化工具:教師可通過AI拆解學(xué)生解題邏輯,針對性設(shè)?元認(rèn)知訓(xùn)練系統(tǒng):AI通過對話日志分析,指出學(xué)生認(rèn)知偏差(如過度依賴記憶而?職業(yè)模擬實驗室:結(jié)合大語言模型與虛擬現(xiàn)實,模擬企業(yè)真AI4Education協(xié)同創(chuàng)新:AI驅(qū)動的教育生態(tài)重

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論