版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
第1章緒論1.1課題研究背景及意義隨著人工智能技術(shù)的快速發(fā)展,圖像識別技術(shù)成為了研究的熱點之一。圖像識別技術(shù)可以幫助計算機識別和分析圖像中的內(nèi)容,從而實現(xiàn)人機交互、智能控制等多種應(yīng)用。其中,基于圖像識別的智能小車跟隨系統(tǒng)是一個具有重要研究意義的應(yīng)用方向。隨著城市發(fā)展的不斷推動,以及道路擁擠的不斷惡化,人們的出行要求也變得更加苛刻。而智能小車,這種全新的、節(jié)約資源的、可靠性強的交通方式,正是滿足了這一要求,未來必定會得到更多的使用。而智能小車跟隨系統(tǒng)則是智能小車實現(xiàn)自主行駛和安全行駛的基礎(chǔ),對于實現(xiàn)智能化交通具有重要的作用。圖像識別的智能小車跟隨系統(tǒng)可以通過分析前方圖像信息,實現(xiàn)對車輛行駛方向、距離、速度等參數(shù)的預(yù)測和控制,從而使得智能小車能夠自主行駛并跟隨前方車輛。這不僅可以提高交通效率,還可以減少交通事故的發(fā)生率,保障行車安全。此外,基于圖像識別的智能小車跟隨系統(tǒng)還可以幫助車輛實現(xiàn)更智能化的駕駛體驗。傳統(tǒng)的駕駛方式需要人工操控方向盤、踏板等,而基于圖像識別的智能小車跟隨系統(tǒng)可以實現(xiàn)更加自然的駕駛方式,讓駕駛者感受到更加輕松、舒適的駕駛體驗。因此,基于圖像識別的智能小車跟隨系統(tǒng)的研究具有重要的意義。它不僅可以推動智能交通技術(shù)的發(fā)展,還可以改善城市交通狀況,提高交通安全性,為人們提供更加智能化、舒適化的出行體驗。1.2國內(nèi)外研究現(xiàn)狀1.2.1智能小車的國內(nèi)外研究現(xiàn)狀隨著經(jīng)濟的發(fā)展,汽車和交通事故的數(shù)量不斷增加,迫切需要采取措施減少交通事故,保護生命財產(chǎn)安全。[1]車輛檢測識別和安全距離保持技術(shù)已成為當前智能交通系統(tǒng)研究的主要內(nèi)容。通過實時監(jiān)控和識別當前車輛,我們可以有效地防止追尾和其他惡劣的交通事故。這種智能交通系統(tǒng)的前身是智能車道系統(tǒng)。智能交通系統(tǒng)將先進的信息技術(shù)、數(shù)據(jù)通信技術(shù)、傳感器技術(shù)、電子控制技術(shù)、計算機技術(shù)有效地、全面地應(yīng)用到整個交通管理系統(tǒng)中,建立規(guī)?;⒐δ苋?、實時性、準確、高效的綜合運輸和管理系統(tǒng)。[2]智能交通系統(tǒng)(ITS)項目于1990年正式提出,主要致力于提高車輛的安全性、智能化,提供友好的人車界面。交通運輸面臨事故率高、交通擁堵、交通擁堵、碳排放空氣污染等諸多問題。我國負責發(fā)展管理虛擬技術(shù)的人員重新構(gòu)建了一個智能交通系統(tǒng),它可以有效地改善交通運輸、服務(wù)管控、車輛制造等領(lǐng)域的效率,并且可以實現(xiàn)車輛、道路和用戶之間的有效連接,從而實現(xiàn)安全、高效的綜合交通體系。效率、改善環(huán)境和節(jié)約能源。[3]通過增加技術(shù)含量來提高既有道路的利用率、道路交通的安全度、道路使用的舒適度已成為研究熱點。對機動性不斷增長的需求帶來了交通基礎(chǔ)設(shè)施的重大變化。[4][5]智能交通系統(tǒng)(ITS)正在成為社會的重要組成部分,可靠高效的車輛通信是ITS良好運行的關(guān)鍵驅(qū)動因素。多年來,車輛檢測一直是一個重要的研究領(lǐng)域。從交通規(guī)劃者的支持到實時交通管理,有許多有價值的應(yīng)用。由于交通量大,空間有限,尤其是在人口稠密的城市地區(qū),檢測汽車具有重要意義。為了滿足各種ITS應(yīng)用的需求,需要共同考慮車對車和基礎(chǔ)設(shè)施通信的配置和優(yōu)化。[6][7]隨著無線接入技術(shù)的不斷普及,它不僅有助于推動道路安全的發(fā)展,而且還可以實現(xiàn)移動車輛的實時信息傳輸,從而大大降低了由此引起的交通事故的損失。而且,由于其對高速公路的管控作用,利用紅外圖像及其相關(guān)的特性來實現(xiàn)車輛的快速、準確的檢測及識別,也變得更加必不可少。近年來,視頻監(jiān)控監(jiān)控系統(tǒng)在交通管理中得到廣泛應(yīng)用,主要用于交通密度估算和車輛分類。近年來,基于移動車輛通過圖像序列建立的區(qū)域與車輛之間的對應(yīng)關(guān)系,提出了許多算法來檢測、識別和跟蹤前方車輛。在過去的十年中,用于改善道路安全的基于視覺的車輛檢測技術(shù)引起了越來越多的關(guān)注。[8]圭多等人介紹了一種跟蹤移動車輛的方法,將無人機與視頻處理技術(shù)相結(jié)合。[9]對于前面的車輛距離測量,Wu等人利用前方車輛的影子來識別前方車輛的位置,并使用函數(shù)式模糊神經(jīng)網(wǎng)絡(luò)來估計實際距離。[10]經(jīng)過實驗證明,該系統(tǒng)在實時環(huán)境中表現(xiàn)出色。實際距離是通過使用功能模糊神經(jīng)網(wǎng)絡(luò)來估計的。這是一項具有挑戰(zhàn)性的任務(wù)。Zhang使用HMAX從圖像中識別車輛類型。[11]該數(shù)據(jù)庫包括26個類別的2,000多張車輛圖像,涉及監(jiān)控攝像頭記錄的各種復(fù)雜攝影條件。圖像作為信息表達和存儲的重要方式,具有廣泛的應(yīng)用價值。通過監(jiān)控和圖像識別,將某些停車位用于車輛管理?;谥悄芎鸵曈X字符識別技術(shù),使用攝像頭通過車牌識別車輛。Hsieh等人提出的對稱磁盤驅(qū)動器[12]用于解決多重性和模糊性問題,確定道路上沒有移動功能的每輛車的關(guān)注區(qū)域。小玲提出了一種基于計算機動態(tài)圖像處理技術(shù)的事故作業(yè)車輛定位方法,能夠準確定位移動車輛。[13]實驗表明,該計算機動態(tài)可視化方法可以大大提高分離車輛圖像關(guān)鍵幀定位結(jié)果的準確性。內(nèi)托等人引入了一種可以感知和識別巴西車牌的新系統(tǒng)。[14]通過霍夫變換、形態(tài)學、閾值檢測、Canny邊緣檢測等多種數(shù)字圖像處理技術(shù),結(jié)合最小二乘、最小均方、極限學習機、神經(jīng)網(wǎng)絡(luò)等多層概念理論,可以有效地提取出文本中的字符。目前,對前方車輛的檢測和識別主要基于單目視覺、紅外傳感器、激光雷達等。王等人研究了視覺感知、超聲波傳感器、雷達技術(shù)的數(shù)字信號處理技術(shù)。[15]艾哈邁德等人使用從AVI收集的實時速度數(shù)據(jù)來檢查具有高碰撞可能性的高速公路位置的識別。[16]Sivaraman和Trivedi[17]詳細介紹了車輛檢測的進展,并討論了單目應(yīng)用。[17]該研究涉及使用時空測量、軌跡和各種特征來表征道路行為。設(shè)計了一種基于像素分類的空中監(jiān)視自動車輛檢測系統(tǒng),該系統(tǒng)在特征提取過程中保留了區(qū)域內(nèi)相鄰像素之間的關(guān)系。[18]通過顏色變換有效分離車輛顏色和非車輛顏色。Canny邊緣檢測器的閾值會自動調(diào)整以進行邊緣檢測。結(jié)果表明該方法具有靈活性和良好的泛化能力。田等[19]提出了一種使用多個傳感器節(jié)點的車輛識別方法。Teoh和Br?unl描述了使用單個前視攝像頭以及車輛邊緣和對稱特征來檢測車輛和道路信息。[20]通過應(yīng)用多尺度窗口與聚類算法,我們可以有效地從圖像中抽取出具有明顯對稱性的部分。為此,我們首先要確定該部分的位置,并通過深入的分析來加深它們的對稱性。從垂直和水平邊緣的增強投影中檢測車輛邊界。劉和李研究CCD采集灰度圖像得到的最優(yōu)解的參數(shù)來識別車道線,以拋物線模型為目標函數(shù)擬合車道線,利用遺傳算法優(yōu)化拋物線參數(shù),利用二進制編碼,多點交叉,和突變遺傳過程。[21]唐等人使用激光、超聲波或雷達傳感器空間傳感器系統(tǒng),以及通信技術(shù)在HISS服務(wù)器和車輛之間交換信息,從而提供車輛周圍的道路信息。[22]碧清主要通過雙目視覺系統(tǒng)和相機標定模型兩個核心部件來描述車輛識別和定位的功能。[23]結(jié)果表明,其在識別功能上能夠準確定位目標位置。習等人研究了基于非線性學習模型的單目紅外圖像深度估計算法。[24]實驗結(jié)果表明,該模型估計的深度大部分與紅外圖像的原始深度信息一致。1.2.2機器視覺的國內(nèi)外研究現(xiàn)狀在80年代,機器視覺技術(shù)開始應(yīng)用于汽車視覺系統(tǒng)。美國在自動駕駛領(lǐng)域取得了巨大進展。隨著汽車廠家的積極參與和政府的大力支持,機器視覺技術(shù)在車輛(AutonomousLandVehicles)系統(tǒng)中得到了廣泛的應(yīng)用,美國通用、德國奔馳、歐洲Prometheus等公司都在努力推動這一領(lǐng)域的發(fā)展。我們現(xiàn)在開始探索機器視覺的潛力。在機器視覺研究方面的重要人物是Marr,他從信息處理的角度認為機器視覺分為計算理論層次、表達與算法層次和硬件實現(xiàn)層次三個層次,并且提出了較完整的機器視覺框架。他的視覺理論框架認為,視覺系統(tǒng)的主要任務(wù)是由二維圖像或圖像序列來感知靜止的或者動態(tài)變化的場景,對場景中的三維物體進行識別、定位與運動分析。上個世紀末期,面向應(yīng)用、行為的目的主義學派,提出了主動視覺的概念,結(jié)合生物視覺的研究成果強調(diào)了視覺系統(tǒng)的主動感知性、任務(wù)性和目的性。主動視覺認為機器視覺應(yīng)主動調(diào)整攝像機的方向、孔徑、焦距等參數(shù)并主動獲取信息。主動視覺主要研究以下領(lǐng)域:(1)機器視覺的學習能力。近年來,主動視覺研究日益強調(diào)學習能力,它不僅涉及到物體的性質(zhì)、功能和感知策略,還涉及到先天的知識和后天的學習技能,以及如何利用這些知識來發(fā)展出不同的學習策略。(2)主動視覺技術(shù)。通過使用主動視覺技術(shù),我們可以更好地識別和控制周圍環(huán)境中的變化,并通過選擇性的注意力來提升我們的工作能力。相比于傳感器捕捉的數(shù)據(jù),這種技術(shù)可以更加準確和快速,從而提升我們的工作效率。隨著技術(shù)的發(fā)展,brown、krotkov、ballard等人的硬件實驗,使得主動機器視覺的發(fā)現(xiàn)取得重大突破,他們利用聯(lián)合傳感器技術(shù),將原本的信號從時間域和空間域中有效地壓縮,從而有效地保留一些重要的數(shù)據(jù)。經(jīng)由brown、krotkov、ballard的研究,我們發(fā)明出一種可以自行操縱的傳感器,它可以準確地辨認周圍的環(huán)境,并且可以進行實時的追蹤,有效地預(yù)測物體的行為。因此,這種技術(shù)被廣泛應(yīng)用于測試視力。雖然我們的機器視覺技術(shù)開始時間比較早,但它的進步卻非常顯著。徐友春的技術(shù)被用來確定道路的邊界,他的算法幫助我們快速定位出最優(yōu)的邊界。沈明霞和其他學者也提出了三種用來識別物體的特殊技術(shù):1利用紋理譜的方向性參數(shù)進行圖像分割,利用小波變換來確定邊界,利用形態(tài)學的原理進行圖像分割。陸建業(yè)和其他20人根據(jù)汽車道邊界的平行線性特點,開發(fā)了一種新的道路檢測方法。這種方法利用卡爾曼濾波和退火診斷技術(shù),從多條特性線集合中精確地識別和預(yù)測道路的狀況,從而更好地滿足城市的交通需求。程洪等人通過綜合運用RGB信息、局部統(tǒng)計信息以及k2均值分類器,開發(fā)出一種新的算法,可以有效地實現(xiàn)道路識別。這種算法以RGB信息及其他局部統(tǒng)計信息為輸入,采用廣義Hebbian算法,通過深層次的模型推理,最終實現(xiàn)精準的道路識別。周欣、黃席樾等人開發(fā)的二維重建技術(shù),利用其通過幾何特性和分布圖的灰色變換,構(gòu)建一個約束條件,從而可以準確地識別出路段的輪廓,并利用Hough變換實現(xiàn)對路段的準確重構(gòu),最終實現(xiàn)對路段的精確定位。周俊和張方明都認可機器視覺技術(shù),他們利用融合的方式來整理和優(yōu)化邊緣檢測的數(shù)據(jù),并以其中的相似度來確定物體的歸屬。通過對道路標志的分析,提出了一種基于計算機圖像處理的道路標志自動識別方法。而對于障礙的識別,可以使用二維或者三維的影像來進行。1.3本課題研究內(nèi)容本文設(shè)計了一套智能小車跟隨系統(tǒng)。本研究的目的在于實現(xiàn)一種能夠自主跟隨目標物體的智能小車,使其具有自主航行能力,能夠識別運動物體并實現(xiàn)自動跟隨。為了實現(xiàn)這一目標,本文首先對循跡小車技術(shù)進行了深入探究,分析了它們在智能小車跟隨系統(tǒng)實現(xiàn)中的應(yīng)用。我們在系統(tǒng)設(shè)計中選擇了Arduino單片機來完成自主跟隨功能的實現(xiàn)。通過多次實驗和改進,我們最終成功地開發(fā)出一種基于圖像識別的智能小車跟蹤系統(tǒng)。本系統(tǒng)旨在構(gòu)建一個智能小車追蹤系統(tǒng),它包含了多種模塊,如攝像頭模塊、測距模塊、藍牙模塊、計算機監(jiān)控模塊、超聲波傳感器模塊,它們的結(jié)合可以實現(xiàn)自適應(yīng)控制器的自我調(diào)節(jié)和自我監(jiān)控。軟件上單片機程序采用C語言進行編程設(shè)計實現(xiàn)下位機功能,移動端程序在Android平臺進行設(shè)計實現(xiàn)上位機功能。完成具有能采集道路的圖像信息、小車運行速度等信息。實現(xiàn)的成果為實物,并通過測試并運行。該系統(tǒng)應(yīng)完成的主要功能有:1.可完成道路信息的實時采集以及對路徑圖像信息的處理;2.圖像信息和小車運行參數(shù)可在上位機顯示屏顯示;3.可檢測小車運行速度;4.通過測距可完成小車的避障功能;5.手機APP可進行遠程控制。第2章系統(tǒng)總體方案設(shè)計2.1系統(tǒng)電路設(shè)計本系統(tǒng)以ATMEGA328P單片機為控制核心,攝像頭模塊采用ESP32視覺傳感器,超聲波模塊采用HC-SR04超聲波傳感器,避障模塊采用了TCRT5000紅外傳感器,藍牙模塊采用HC-05芯片,通過電機驅(qū)動實現(xiàn)小車的運動最后可以通過上位機APP實現(xiàn)對小車的遠程控制??偨Y(jié)構(gòu)框圖如圖2.1所示。圖2.1結(jié)構(gòu)框圖2.2模塊選型方案設(shè)計2.2.1攝像頭模塊選型攝像頭模塊設(shè)計方案有兩種,分別進行比較如下:方案一:采用JetsonNano為圖像處理單元結(jié)合YOLOV3行人檢測本款小型汽車的設(shè)計理念源自YOLOv4--tiny的JetsonNano,它的最大功能就是從攝像頭獲取信息,然后利用Darknet的框架來執(zhí)行YOLOv4-Tiny,從而檢測到被追趕的物體,同時還能夠檢測到物體的上下、左右等方向,而且JetsonNano還能夠通過I2C和UART串口連接到單片機,單片機則通過PID算法來發(fā)送控制信息,從而實現(xiàn)對物體的精準追趕。通過調(diào)整參數(shù),實現(xiàn)對小車的精確操縱。方案二:采用OpenMV(STM32為核心處理模塊)實現(xiàn)行人檢測利用OpenMV攝像頭和內(nèi)置的高級視覺算法,penmv可以準確地檢測出物品的顏色,將檢測到的數(shù)據(jù)通過UART(無線數(shù)據(jù)交換)發(fā)送至arduino的下一步處理器,arduino可以根據(jù)檢測到的數(shù)據(jù),調(diào)整一個特殊的閾值(即物品的中心點),從而實現(xiàn)對298電機的精準操作,從而實現(xiàn)對小車的有效控制。方案三:采用嵌入式視像頭(ESP32雙核處理器)實現(xiàn)行人檢測首先攝像頭結(jié)合ESP32神經(jīng)網(wǎng)絡(luò)算法識別人體,然后將識別到的人體姿態(tài)信息通過光流算法實現(xiàn)人體追蹤,并且實時反饋目標物的中心點坐標以及X,Y坐標信息;將ESP32采集到的坐標信息通過IIC總線傳輸?shù)较挛粰C中(arduino),最終通過下位機的PID算法控制小車移動。第一種方式因為采用JetsonNano作為圖像處理單元且成本高昂不太適用我現(xiàn)在的要求;方案二采用OpenMV因最近芯片供貨緊張導致STM32芯片價格居高不下并且OpenMV采用傳統(tǒng)的算法只適合某一種顏色的識別與跟隨不太適用人體跟隨;方案三中所涉及到的ESP32屬于國產(chǎn)芯片且價格相對較低且性能強大,并且在目標跟隨檢測算法方面有內(nèi)部封裝好的庫函數(shù),方便調(diào)用。綜上這幾種方面,最終選用方案三采用嵌入式視像頭(ESP32雙核處理器)實現(xiàn)行人檢測及跟蹤。2.2.2單片機選型方案一:ARM是精簡指令集,也就是RISC,所有的指令長度都是相同的。ARM處理器,不能直接訪問外存,只能通過寄存器來訪問外存。所有的指令都是真對那30幾個寄存器進行操作的。方案二:STC89C52RC最小系統(tǒng)模塊,有內(nèi)部EEPRPOM,可以串口下載,斷電自動保存資料,但是STC89C52RC沒有硬件IIC,需要軟件模擬IIC。方案三:ATMEGA328P作為最佳解決方案,其具備8位AVR微處理器、32K字節(jié)的可編程Flash、23個I/O口、28個PDIP、32個TQFP、28個QFN/MLF以及具備先進的RISC架構(gòu),此外,還新增了一個中斷口和一個輸入輸出口,以滿足不同應(yīng)用場景的需求。方案一直接選用STM32的單片機因為價格偏高,在本論文中因為下位機不涉及太多算法處理只需要與上位機圖像處理單元進行IIC通訊,所以排除方案一,最終選取方案三ATMEGA328P最小系統(tǒng)。2.2.3電機驅(qū)動選用為了提升系統(tǒng)的性能,我們選擇了一種新的控制模塊。這種模塊的特點是它支持兩種類型的控制。首先,它支持兩種類型的控制模塊,一種叫做L298N,它的特點是它的工作電壓為46V,輸出電流為4A。它還支持兩種類型的控制模塊,一種叫做Multiwatt15,它支持兩種類型的控制模塊。它們都支持兩種類型的控制模塊,一種叫做l298n,它的特點是它的控制模塊支持兩種類型的控制模塊。采用78MO5內(nèi)置的穩(wěn)壓芯片,不僅能夠保證內(nèi)部邏輯電路的正常運行,還能夠?qū)?V的高效能驅(qū)動到其他設(shè)備上,從而提高系統(tǒng)的性能。但是,如果需要超高的12V的驅(qū)動電壓,請確保5V的設(shè)備是單獨的,而不是與其他設(shè)備連接。采用雙L9110S型芯的電動機,其最佳的實際工作電壓為2.5V-12V,最高的實際工作電流輸出為0.8A,這一特性使得它成為當前市場上最佳的智能小車的選擇,它不僅具有良好的性價比,而且還具有雙向的功率輸出,可以同時控制2個直流電機。為了滿足本系統(tǒng)小車的電機馬達電流要求,我們選擇了方案一的L298N電機作為驅(qū)動電機,因為它具有更高的減速性能,可以提供更低的電流,比方案二的電流只能達到0.8A左右。第3章硬件系統(tǒng)控制設(shè)計3.1系統(tǒng)整體原理圖本文采用了ATMEGA328P單片機為控制核心,通過在單片機的外圍對其他元器件進行焊接配置使其工作。系統(tǒng)主要分為攝像頭模塊電路、藍牙模塊電路、超聲波模塊電路、避障模塊電路、單片機控制電路、電機驅(qū)動電路。整體電路圖如圖3.1所示。圖3.1系統(tǒng)整體原理圖3.2攝像頭模塊MU視覺傳感器3(MUVisionSensor3)具有出眾的性能如圖3.2所示,它能夠通過強大的深度學習算法,準確地辨認出多種不同的視覺對象,包括但不限于:從顏色到形狀,從細微的細節(jié)到復(fù)雜的結(jié)構(gòu),從而實現(xiàn)對多種場景的準確定位。在行人識別中ESP32內(nèi)置Yolo-v5部署模型,具備極其優(yōu)秀的性能,它的尺寸極其緊湊,而且能夠?qū)崿F(xiàn)高效的UART和I2C,并且能夠?qū)崿F(xiàn)對各種算法的本地處理,從而大大提高了檢測效率。圖3.2ESP32視覺處理器3.2.1Yolo-v5目標檢測網(wǎng)絡(luò)理論分析Yolo-v5的架構(gòu)與Yolo-v4非常類似,但它們之間仍存在一些差異。從圖3.3中,我們可以清楚地發(fā)現(xiàn),它仍然由輸入端、Backbone、Neck、Prediction四個組成部分組成。圖3.3Yolo-v5網(wǎng)絡(luò)結(jié)構(gòu)圖(1)輸入端:Mosaic數(shù)據(jù)增強、自適應(yīng)錨框計算、自適應(yīng)圖片縮放(2)Backbone:Focus結(jié)構(gòu),CSP結(jié)構(gòu)(3)Neck:FPN+PAN結(jié)構(gòu)(4)Prediction:GIOU_Loss3.2.2輸入端(1)Yolo-v5的輸入端通過引入Mosaic技術(shù),大大提升了系統(tǒng)的性能,與Yolo-v4相比,具有更高的性能。(2)Yolo算法可以根據(jù)特定的數(shù)據(jù)集,調(diào)整其錨點的大小,從而產(chǎn)生一個可以用于模擬真實環(huán)境的預(yù)測框。通過與模擬環(huán)境的groundtruth的比較,可以獲得模型的優(yōu)化結(jié)果,并且可以通過反復(fù)的調(diào)整來優(yōu)化模型的性能。Yolo-v5的Coco數(shù)據(jù)集中,其最初的錨點位置至關(guān)重要,這將為后續(xù)的操作提供良好的基礎(chǔ)。3.2.3Backbone(1)Focus結(jié)構(gòu)與Yolo-v3和Yolo-v4不同,它的重要性體現(xiàn)在對樣本的分割上。例如,當樣本被分割為4*4*3的樣本時,它會形成2*2*12的樣本,從而實現(xiàn)對樣本的分割。通過使用Yolo-v5s的聚類算法,我們可以將原始的608*608*3的圖像轉(zhuǎn)換到Focus聚類算法中。我們首先使用切割技術(shù)將其分割成304*304*12的塊,然后通過一次32個聚類算法的聚類處理,將其轉(zhuǎn)換到304*304*32的塊。如圖3.4所示。圖3.4切片示意圖(2)Yolo-v4網(wǎng)絡(luò)結(jié)構(gòu)采取了CSPNet的概念,將其融入到其核心網(wǎng)絡(luò)架構(gòu)之中。而Yolo-v5網(wǎng)絡(luò)結(jié)構(gòu)更進一步,提出了兩個不同的CSP架構(gòu),當中Yolo-v5s網(wǎng)絡(luò)采用的是Backbone架構(gòu),而Neck網(wǎng)絡(luò)采用的是Neck架構(gòu)。3.2.4Neck在Yolo-v5的初期,它僅采用了FPN結(jié)構(gòu),而隨著技術(shù)的發(fā)展,它不僅在Neck和Yolo-v4中采用了相同的結(jié)構(gòu),而且還在網(wǎng)絡(luò)的其他部分進行了改進,如圖3.5所示,它的結(jié)構(gòu)變得更加靈活多變。在Yolo-v5的Neck架構(gòu)中,我們引入了CSPnet的CSP2架構(gòu),以提升網(wǎng)絡(luò)特征融合的性能。圖3.5Neck網(wǎng)絡(luò)結(jié)構(gòu)3.2.5輸出Yolo-v5中采用其中的GIOU_Loss做Boundingbox的損失函數(shù)如下圖公式3-1所示。CIOU_Loss=1?CIOU=1?(IOU?Distance_ v=4π2(aretan3.3超聲波傳感器模塊超聲傳感器測距的原理是依據(jù)超聲波在空氣中傳播速度不變的且遇到障礙物會反射回來的性質(zhì),來獲取障礙物的距離信息。利用超聲技術(shù),可以根據(jù)其無限的能量,以及當它穿越任何障礙物的情況下,其能量的衰減情況,以及它們之間的相互作用,通過計算源聲波發(fā)送時刻和回波信號接收時刻的時間間隔,可以準確地估算出目標的位置。HC-SR04超聲波遙測模塊可以實現(xiàn)從2厘米到400厘米的非接觸距離探測,并且測量范圍只有3米。完全滿足用戶的需求。為了確保系統(tǒng)能夠正常運行,超聲波傳感器需要輸出超過10us的脈沖觸發(fā)信號。一旦系統(tǒng)啟動,它就能夠以40kHz的頻率連續(xù)傳播8個周期,同時還能夠接收和捕捉反向的回波。一旦反向的回波被接收,就能夠被計算成一個脈沖,其長短取決于反向的距離。因此,要想避免反向的影響,就必須確保反向的信號的傳播速度要比反向的阻力快。HC-SR04超聲波遙測模塊擁有出色的性能,包含一種高效的超聲波發(fā)射器、一種高靈敏的接收器,還配備了先進的控制系統(tǒng),使得測量的距離更加準確,最遠只需3mm,因此,HC-SR04超聲波遙測模塊被廣泛地應(yīng)用在各種領(lǐng)域。HC-SR04超聲波遙測模塊是一種高精度的超聲波檢測技術(shù),它能夠幫助駕駛員快速識別出前方的障礙,有效地幫助駕駛員快速拐彎,躲閃危險。它的結(jié)構(gòu)和功能詳見圖3.6。圖3.6HC-SR04超聲波通過改變脈沖電壓,以及實現(xiàn)電信號-聲信號的交替?zhèn)鬏?,超聲波發(fā)射與接收電路的核心作用就顯現(xiàn)出來了:它不僅提高了傳感器的靈敏度,還大大延長了傳感器的傳輸范圍,同時還使得傳感器的反饋電壓變得更低。發(fā)射器和超聲回波接收電路如圖3.7所示。圖3.7發(fā)射器和超聲回波接收電路當需要進行測量時,單片機需要從端口P24觸發(fā)TRIG模塊,從而產(chǎn)生10μs的高頻信號。該模塊隨即產(chǎn)生八個40kHz的矩陣波,當它們碰撞到任何障礙物或者行走者,模塊便能夠從波束的反饋處檢測出其行走的距離,從而計算出該波束的持續(xù)時長。這個單片機定時器能夠捕捉到一個特定的寬度,這個寬度和它的長度成正比。因此,我們就能夠輕松地估算出障礙物和超聲波發(fā)射器的距離。這個估算方法就是:當一個特定的寬度被捕捉時,它的長度*聲速的/2。HC-SR04超聲波模塊的出現(xiàn),使得超聲波的傳輸過程變得更加便捷,同時也顯著改善了它的功率、可靠性以及穩(wěn)定性。為此,我們將I/O端口的P24點與TRIG、ECHO、4與5V以及1與接地相聯(lián)系,以實現(xiàn)更加有效的超聲波傳輸。根據(jù)圖3.8,超聲波模塊和單片機之間的連接是可行的。圖3.8超聲波模塊與單片機接口3.4避障模塊這個設(shè)計的避障模塊采用了TCRT5000紅外傳感器如圖3.9所示。這個傳感器的優(yōu)點有安裝簡單:它的引腳排列緊湊,容易安裝在各種電路板上。響應(yīng)時間短:在檢測到反射光后,它能夠快速地轉(zhuǎn)換電信號和輸出信號。靈敏度高:它可以檢測比普通光電傳感器更遠、光線更弱的光源??煽啃愿撸核捎诓捎昧藬?shù)字式輸出,不會受到環(huán)境光、溫度、濕度等影響,因此使用壽命更長。成本低:相較于其他光電傳感器,它的制造成本低,因此價格也相對較低。圖3.9TCRT5000紅外傳感器TCRT5000感應(yīng)器的紅外線發(fā)射二極管持續(xù)發(fā)出紅外線,在發(fā)出的紅外線未被折射或折射而回的紅外線強度不足的情況下,紅外線接收器直接關(guān)閉,這時該組件的輸出為高電平;指示器二極管始終是關(guān)閉的。當被偵測對象進入偵測區(qū)域后,紅外線會被強烈地反射回去,紅外線接受管會達到飽和狀態(tài),這時,組件的輸出會處于低電平,表示二極管會發(fā)光。DO的輸出端可以與10個MCU端口連接,通常與外界斷開連接。模擬輸出
AO,在發(fā)射管的紅外信號經(jīng)反射被接收管接收之后,接收管的電阻會出現(xiàn)改變,通常在電路上以電壓的變化形式體現(xiàn),而在
ADC轉(zhuǎn)換或LM324等電路成形后,得到處理后的輸出結(jié)果如圖3.10所示。圖3.10TCRT5000紅外傳感器電路圖3.5藍牙模塊這個設(shè)計藍牙模塊采用了HC-05藍牙模塊如圖3.11所示。HC-05藍牙模塊可通過與任何主板集成,使其具有藍牙功能??梢苑奖愕嘏c其他支持藍牙的設(shè)備進行通訊。HC-05藍牙模塊采用藍牙4.0技術(shù),減少了當設(shè)備使用時的能耗。這意味著長時間運行,無需更換電池。這使得HC-05藍牙模塊成為能量有效的解決方案。HC-05藍牙模塊易于編程,可以使用Arduino等開發(fā)板、開發(fā)軟件語言(如C++、Python等)編寫代碼來進行通信。HC-05藍牙模塊非常小,重量也很輕。適用于本設(shè)計??傊琀C-05藍牙模塊是一種簡單、藍牙4.0技術(shù)、低成本、低功耗,易于使用和編程的解決方案。圖3.11HC-05藍牙模塊HC-05藍牙模塊是一種串口透傳類型的模塊如圖3.12所示。當電源接通且正常運行時,模塊會自動進入AT命令透傳模式。此時,可以通過串口透傳命令,將數(shù)據(jù)從主控端傳輸?shù)剿{牙模塊,經(jīng)過模塊進行藍牙傳輸,然后由連接的藍牙外設(shè)接收到。在使用的時候,可以將HC-05藍牙模塊接到微控制器(比如Arduino)的串口,從而實現(xiàn)數(shù)據(jù)的傳輸。通過藍牙鏈路將數(shù)據(jù)傳輸?shù)脚c之匹配的藍牙設(shè)備上。如此,就可以實現(xiàn)方便的無線數(shù)據(jù)傳輸。圖3.12HC-05藍牙模塊電路圖3.6單片機控制電路這個設(shè)計使用了一種新型的單片機來處理光信號,它的功耗非常低,只有AVR8位。它擁有IIC和SPI這兩種通信模式,6個
PWM信號輸出信道。此外,該系統(tǒng)還具有16位定時/計數(shù)裝置(Tirme0),具有單獨除波、對比、捕獲等功能。在圖3.13中還顯示了兩個切斷控制管腳。圖3.13單片機最小系統(tǒng)電路3.7電機驅(qū)動模塊根據(jù)圖3.14,我們在電源電路中使用了LM2940(轉(zhuǎn)5V)穩(wěn)壓芯片,并且在VIN網(wǎng)絡(luò)端口安裝了LM358比較器,以確保輸出電壓穩(wěn)定在5V。此外,我們還在輸入端和輸出端分別安裝了47uF電解電容和1uF無極性電容,以有效抑制50-60Hz的市電雜波,并且能夠有效抑制高頻信號。圖3.14穩(wěn)壓芯片電源電路圖根據(jù)圖3.15的描述,電機的驅(qū)動是通過調(diào)節(jié)電壓和頻率實現(xiàn)的。由于單個計算器的輸入信號很少,無法滿足對電機的啟動和操作的需求,這時候,我們可以使用L298N的電機驅(qū)動芯片,它的工作原理與MOS管組成的H橋相似。在電機驅(qū)動前級加入了74LS00與非門,因L298N工作時需要同時控制6個引腳(分別是ENA、ENB、IN1、IN2、IN3、IN4),為了減少控制引腳,引入了一個與非門,其特點是減少單片機與電機驅(qū)動控制引腳。工作原理是將單片機兩個引腳分別給ENA、ENB,單片機另外兩個PWM引腳接入與非門中,使得IN1和IN2(一組)始終處于相反的狀態(tài)如表3.1所示。圖3.15電機驅(qū)動模塊圖表3.1L298N芯片真值表電機旋轉(zhuǎn)方式IN1IN2IN3IN4ENAENBM1正轉(zhuǎn)101反轉(zhuǎn)011停止××0M2正轉(zhuǎn)101反轉(zhuǎn)011停止××0二極管的主要功能就是將電力傳輸至直流電機,同時也可以將其他外部因素的影響轉(zhuǎn)化為內(nèi)部的信號。當電力傳輸至直流電機時,它的兩端就會發(fā)生變化,一端就會接受來自外部的信號,另一端就會接受來自內(nèi)部的信號,從而形成一種信號,從而使得整條電路得以穩(wěn)定地工作。接入二極管便可以泄放掉電機線圈所產(chǎn)生的感生電壓,起到保護電路的作用。
第4章系統(tǒng)軟件程序設(shè)計該系統(tǒng)的軟件采用模塊化設(shè)計,可以方便同種設(shè)備之間的拓展和移植,方便流水線生產(chǎn)。本文使用Arduino語言進行編寫,其中包括了一個基于C/C++的框架,該框架由一個主程序、一個T0中斷服務(wù)器、一個外部中斷服務(wù)器和一個可執(zhí)行的超聲波發(fā)射器組成。4.1系統(tǒng)軟件主程序流程圖圖4.1系統(tǒng)軟件主程序流程圖4.2分段處理程序4.2.1視覺目標跟蹤算法首先通過公開數(shù)據(jù)(行人識別)通過Yolo-5v目標檢測網(wǎng)絡(luò)進行訓練,經(jīng)過2000次的訓練得到一個訓練好的權(quán)重文件,最終將權(quán)重文件通過修正不必要的分支減少模型參數(shù),這部分程序已經(jīng)嵌入到ESP32中。我所需要做的就是對識別到行人進行跟蹤。KernelCorrelationFilter(KCF)目標跟蹤算法KCF是CSK的改進,在CSK的基礎(chǔ)上引入了多通道hog特征KCF的基本思路:(1)通過在It幀附近采樣循環(huán)矩陣,我們可以訓練出一個回歸器,它能夠捕捉到一個小窗口的反饋信息。(2)在It+1幀中,從上一幀的位置開始,使用回歸分析來確定每一個采樣窗口的反應(yīng),以便進行相關(guān)操作。(3)從響應(yīng)值最高的幀中選取最佳的位置。(4)重復(fù)(1),(2),(3)?;貧w器的訓練:(1)獲取樣本—循環(huán)矩陣一維循環(huán)矩陣公式4-1:x=p= px=xn,x二維循環(huán)矩陣可以分別通過x和y的一位循環(huán)實現(xiàn)向量的位移。如圖4.2所示:圖4.2向量的位移(2)一維脊回歸通過求解min得到ω=(3)循環(huán)矩陣傅氏對角化通過離散傅里葉矩陣,可以將所有循環(huán)矩陣轉(zhuǎn)換為傅里葉變換,從而實現(xiàn)其對稱性和可視性X=Fdiag(x)F^H,其中F為:F=將X對角化結(jié)果帶入一維脊回歸公式4-2中:ω=( =Fdiag(x?x?通過對目標的模型進行圖像處理,用KCF目標跟蹤算法進行跟蹤計算,根據(jù)攝像頭模塊來做到對目標的智能循跡。4.2.2調(diào)制不同發(fā)射頻率為了獲得更加精確的頻率信號,328P單片機內(nèi)置了三個Timer,分別為Timer0、Timer1和Timer2,以便在調(diào)制發(fā)射程序中,可以根據(jù)不同的頻率波進行調(diào)制。三個Timer都具有獨特的功能,他們可以定制調(diào)整的頻率,以滿足用戶的要求。Timer0的任務(wù)是對諸如delay這樣的功能進行管理,當它們的頻率發(fā)生變化時,這些功能將會對其它定時功能產(chǎn)生影響。時間1的計數(shù)/計時器是16比特,時間0和時間2是8比特。另外,定時器2具有較寬的調(diào)頻范圍,可以實現(xiàn)7個等級的預(yù)因子(1,8,32);64、128、256),這是一個很大的數(shù)字。1)pinMode:PIN11和PIN3受到Timer2的控制(Timer0用于控制5,6,而Timer1則用于控制9,10),因此,我們將它們作為輸入,以便在chip的datasheet上進行調(diào)整。2)OCR2A/B:Timer的構(gòu)造和運作機制是本部分的重點。在Timer中,每個時間戳都包含一個計數(shù)器和兩個比較寄存器。在Timer2中,計數(shù)器會從0開始,一直到255位,然后返回0,并重復(fù)這一過程。另外,還有兩個比較寄存器,分別是OCR2A和OCR2B。采用TCCR2A/B來控制Timer2計數(shù)器的模式與預(yù)除數(shù)的數(shù)量,采用CS2位來控制Timer2計數(shù)器預(yù)分頻數(shù)的:_BV(CS22)|_BV(CS21)|_BV(CS20)的三部進行“|”運算;每個BV意味著是按位賦注(bitvalue);_BV(CS22)=在CS2里,1<<2(把1左移2位)=00000100;對應(yīng)查找查代碼表得到對應(yīng)的預(yù)除數(shù)是64。采用OCRA和OCR來設(shè)置計數(shù)器初值。因此頻率計算公式為:16MHz/64/(249+1)=500Hz(4.6)4.2.3超聲波程序開始首先系統(tǒng)進行初始化之后,HC-SR04超聲波傳感器持續(xù)發(fā)出聲波脈沖信號,并判斷是否接收到回波,如果接收到回波可以檢測出小車前方出現(xiàn)障礙物,之后根據(jù)判斷聲波脈沖的長度,若逐級遞減則證明小車即將到達障礙物處,之后系統(tǒng)發(fā)出右轉(zhuǎn)指令使小車躲避障礙物之后繼續(xù)前進。模塊流程圖如圖4.3所示。圖4.3超聲波模塊流程圖4.2.4攝像頭模塊程序本系統(tǒng)使用ESP32攝像頭模塊來檢測路況和行人蹤跡,首先系統(tǒng)進行初始化,單片機發(fā)出信號,ESP32進行圖像識別,之后單片機根據(jù)畫面判斷出圖像的中心點,若無法判斷中心點,則繼續(xù)尋找圖像中心點,若尋找到中心點,則驅(qū)動電機模塊沿著圖像的中心點進行尋跡。流程圖如圖4.4所示。圖4.4攝像頭模塊流程圖4.2.5避障模塊程序本系統(tǒng)使用TCRT5000紅外傳感器作為小車的避障模塊,當系統(tǒng)開機進行初始化之后,小車前進進行障礙物檢測,如若沒有障礙物小車就會直走,若是兩端都檢測到障礙物,小車就會大角度右轉(zhuǎn)彎,若左端檢測到障礙物,小車后退小角度右轉(zhuǎn),若右端檢測到障礙物,小車后退小角度左轉(zhuǎn)。流程圖如圖4.5所示圖4.5避障模塊流程圖4.2.6藍牙模塊程序本系統(tǒng)使用藍牙模塊進行控制,系統(tǒng)開機進行初始化之后,當HC-05藍牙模塊穩(wěn)定之后,系統(tǒng)首先確定藍牙模塊是否成功連接,如果沒有連接成功則重新連接,連接成功之后,系統(tǒng)可以通過該模塊對小車發(fā)出前進、后退、左轉(zhuǎn)、右轉(zhuǎn)指令,當小車接收到指令后,進行相應(yīng)的動作。流程圖如圖4.6所示。圖4.6藍牙模塊流程圖第5章系統(tǒng)仿真與運行結(jié)果5.1仿真方案在前期方案論證過程中,我們采用了prot技術(shù),模擬了超聲波和L298電機的驅(qū)動,超聲波發(fā)射器通過控制端口可產(chǎn)生25微秒的周期性,40
KHZ的16位正方波,使訊號得以高效的傳送。高電平的脈沖在13微秒內(nèi)維持,而低電平的脈沖在12微秒內(nèi)維持,保證了超聲輻射在最大程度上維持在最好的探測距離。另外,最優(yōu)的脈沖個數(shù)應(yīng)在10至20個之間。當距離障礙物較近,而第一個脈沖還沒有被發(fā)出時,接收端就會受到影響,從而導致距離測量的準確性受到限制甚至出現(xiàn)盲區(qū)。5.2Yolo-v5訓練自己的數(shù)據(jù)集Yolo-v5目標檢測網(wǎng)絡(luò)訓練過程以Windows10+Yolo-v5訓練自己的數(shù)據(jù)集分為:1.1安裝anaconda1.2在anaconda中安裝pytorch虛擬環(huán)境(pytorch>=1.7.0)1.3安裝CUDA和cudnn1.4安裝pytorchGPU版5.2.1訓練自己的數(shù)據(jù)集(1)VOC數(shù)據(jù)集制作Yolo-v5需要一個txt格式的文檔,因此必須將其轉(zhuǎn)換為XML格式,以便更好地支持其功能。我們通過在VOCdata中新建一個voc_label.py文件,輸入如圖5.1所示代碼:圖5.1voc_label.py文件代碼通過接收轉(zhuǎn)換后可以看到VOCData/VOCTrainval/和VOCData/VOCTest下生成了兩個新的文件夾images和labels如圖5.2所示:圖5.2images和labels文件夾(2)修改配置yaml文件V5中取消了“.data”和“.names”文件的配置,而是將它們整合到y(tǒng)aml中,并在data文件夾下創(chuàng)建myvoc.,以便更好地處理數(shù)據(jù)。在yaml文件,輸入如圖5.3所示信息:圖5.3yaml文件信息(3)修改網(wǎng)絡(luò)參數(shù)方面的yaml如圖5.4所示文件網(wǎng)。圖5.4yaml文件網(wǎng)網(wǎng)絡(luò)參數(shù)方面文件相當于以前版本的.cfg文件,在models/Yolov5s.yaml下,修改下類別數(shù)量。(4)修改train.py中的一些參數(shù)。1)通過調(diào)整train.py中的訓練參數(shù)如圖5.5所示,或者直接在訓練句子中進行重新編排,都會對默認值產(chǎn)生影響。圖5.5訓練參數(shù)2)對學習率、權(quán)重系數(shù)等參數(shù)的修改如圖5.6所示:圖5.6參數(shù)修改(5)訓練(6)計算mAP如圖5.7所示:在訓練完成后可在.runs\test\exp目錄下有更多測試的細節(jié)信息:圖5.7訓練結(jié)果5.2.2運行結(jié)果小車接通電源,打開開關(guān),用手機打開無線WiFi網(wǎng)絡(luò)如圖5.8所示,用小車連接無線網(wǎng)絡(luò),再打開手機藍牙,通過手機連接小車藍牙模塊,通過連接的區(qū)域網(wǎng),可操作小車前后左右運動如圖5.9,通過小車的攝像頭模塊可以看到小車運行中的路面狀況如圖5.10所示,若在路上設(shè)置障礙物,小車可以做到自動避障如圖5.11所示。圖5.8打開小車開關(guān),使其開始運行圖5.9打開手機,進入軟件APP操作圖5.10攝像頭識別路面信息圖5.11路上有障礙物時可以完成避障第6章總結(jié)論文按照課題研究的需要,對系統(tǒng)進行了總體規(guī)劃,并在此基礎(chǔ)上對系統(tǒng)進行了詳細的軟硬件設(shè)計。該系統(tǒng)采用了ATMEG328P作為最小的系統(tǒng),來完成對小車的簡單移動的控制,在硬件方面,它包含了核心電路ATMEG328P以及周邊的幾個電路,這些電路主要包含了電源模塊電路、電機模塊電路和攝像頭模塊電路;在此基礎(chǔ)上,對超音波避障模塊的電路進行了詳細的分析,并利用
AltiumDesigner繪制了各個部件的電路圖。利用C語言編寫了其中的一些程序,其中包括攝像頭程序,超聲波程序,以及主控程序。整體設(shè)計采用了軟、硬兩種方式來完成對手推車的控制,使得手推車可以進行前進,后退,左轉(zhuǎn)等動作;在PC機上對移動機器人進行了動態(tài)跟蹤,并對移動機器人進行了動態(tài)跟蹤。本課題已初步實現(xiàn)了系統(tǒng)的軟硬件功能,達到了系統(tǒng)的設(shè)計指標。與傳統(tǒng)的智能小車相比,本設(shè)計可以通過上位機進行對小車的遠程操控,讓小車可以進行前進、后退、左轉(zhuǎn)、右轉(zhuǎn),實用性和功能性更強,人機互動性更強,更符合對智能小車的定位。未來,汽車行業(yè)的汽車自動駕駛系統(tǒng)將繼續(xù)受益于這項科技的改良,并且還可以通過改進汽車行業(yè)的標準來提高汽車的安全性。我們可以做到更高的識別精度和速度,更加精準的跟隨和避障,更加智能的決策和控制。參考文獻[1]R.B.Chen,N.Li,H.F.Xiao,andW.Hou,“ResearchonsafetyvehicledistancerecognitionbasedonstereovisionandDSP//AppliedMechanicsandMaterials,”TransTechPublications,vol.333-335,pp.805–810,2013.[2]Z.Lv,S.Zhang,andW.Xiu,“DeepLearningforsecurityinDigitalTwinsofCooperativeintelligenttransportationSystems,”IEEETransactionsonIntelligentTransportationSystems,vol.22,pp.1–10,2021.[3]K.N.QureshiandA.H.Abdullah,“Asurveyonintelligenttransportationsystems,”Middle-EastJournalofScientificResearch,vol.15,no.5,pp.629–642,2013.[4]G.DimitrakopoulosandP.Demestichas,“Intelligenttransportationsystems,”IEEEVehicularTechnologyMagazine,vol.5,no.1,pp.77–84,2010.[5]Z.Lv,D.Chen,andQ.Wang,“Diversifiedtechnologiesininternetofvehiclesunderintelligentedgecomputing,”IEEETransactionsonIntelligentTransportationSystems,vol.22,no.4,pp.2048–2059,2021.[6]S.Tuermer,F.Kurz,P.Reinartz,andU.Stilla,“AirbornevehicledetectionindenseurbanareasusingHoGfeaturesanddisparitymaps,”IEEEJournalofSelectedTopicsinAppliedEarthObservationsandRemoteSensing,vol.6,no.6,pp.2327–2337,2013.[7]Z.Lv,R.Lou,andA.K.Singh,“AIempoweredcommunicationsystemsforintelligenttransportationsystems,”IEEETransactionsonIntelligentTransportationSystems,vol.22,no.7,pp.4579–4587,2021.[8]X.Cheng,L.Yang,andX.Shen,“D2Dforintelligenttransportationsystems:afeasibilitystudy,”IEEETransactionsonIntelligentTransportationSystems,vol.16,no.4,pp.1784–1793,2015.[9]G.Guido,V.Gallelli,D.Rogano,andA.Vitale,“Evaluatingtheaccuracyofvehicletrackingdataobtainedfromunmannedaerialvehicles,”InternationalJournalofTransportationScienceandTechnology,vol.5,no.3,pp.136–151,2016.[10]C.F.Wu,C.J.Lin,andC.Y.Lee,“Applyingafunctionalneurofuzzynetworktoreal-timelanedetectionandfront-vehicledistancemeasurement,”IEEETransactionsonSystemsManandCybernetics-PartC-ApplicationsReviews,vol.42,no.4,pp.577–589,2012.[11]B.Zhang,“Classificationandidentificationofvehicletypeandmakebycortex-likeimagedescriptorHMAX,”InternationalJournalofComputationalVisionandRobotics,vol.4,no.3,pp.195–211,2014.[12]J.W.Hsieh,L.C.Chen,andD.Y.Chen,“Symmetricalsurfanditsapplicationstovehicledetectionandvehiclemakeandmodelrecognition,”IEEETransactionsonIntelligentTransportationSystems,vol.15,no.1,pp.6–20,2014.[13]X.Xiaoling,“Basedoncomputervisionescapevehicleidentificationsystemdesignandresearch,”BulletinofScienceandTechnology,vol.11,p.37,2012.[14]E.C.Neto,S.L.Gomes,P.P.Rebou?asFilho,andV.H.C.deAlbuquerque,“Brazilianvehicleidentificationusinganewembeddedplaterecognitionsystem,”Measurement,vol.70,pp.36–46,2015.[15]W.Wang,Y.Song,J.Zhang,andH.Deng,“Automaticparkingofvehicles:areviewofliteratures,”InternationalJournalofAutomotiveTechnology,vol.15,no.6,pp.967–978,2014.[16]M.M.AhmedandM.A.Abdel-Aty,“Theviabilityofusingautomaticvehicleidentificationdataforreal-timecrashprediction,”IEEETransactionsonIntelligentTransportationSystems,vol.13,no.2,pp.459–468,2012.[17]S.SivaramanandM.M.Trivedi,“Lookingatvehiclesontheroad:asurveyofvision-basedvehicledetection,tracking,andbehavioranalysis,”IEEETransactionsonIntelligentTransportationSystems,vol.14,no.4,pp.1773–1795,2013.[18]H.Y.Cheng,C.C.Weng,andY.Y.Chen,“VehicledetectioninaerialsurveillanceusingdynamicBayesiannetworks,”IEEETransactionsonImageProcessing,vol.21,no.4,pp.2152–2159,2012.[19]Y.Tian,H.Dong,L.Jia,andS.Y.Li,“Avehiclere-identificationalgorithmbasedonmulti-sensorcorrelation,”JournalofZhejiangUniversitySCIENCEC,vol.15,no.5,pp.372–382,2014.[20]S.S.TeohandT.Br?unl,“Symmetry-basedmonocularvehicledetectionsystem,”MachineVisionandApplications,vol.23,no.5,pp.831–842,2012.[21]G.LiuandX.Li,“Lanelineidentificationbasedongeneticalgorithm,”JournalofHubeiUniversityofTechnology,vol.1,p.14,2013.[22]X.Tang,F.Gao,G.Xuetal.,“Sensorsystemsforvehicleenvironmentperceptioninahighwayintelligentspacesystem,”Sensors,vol.14,no.5,pp.8513–8527,2014.[23]L.Biqing,Z.Shiyong,andQ.Ming,“ResearchonpickingidentificationandpositioningsystembasedonIOT,”InternationalJournalofOnlineEngineering(iJOE),vol.14,no.7,pp.149–160,2018.[24]L.Xi,S.Sun,L.Li,andF.Y.Zou,“DepthestimationfrommonocularinfraredimagesbasedonSVMmodel,”LaserInfrared,vol.42,no.11,pp.1311–1315,2012[25]趙嘉琦,遲楠.室內(nèi)LED可見光定位若干關(guān)鍵技術(shù)的比較研究[J].燈與照明,2015,39(01):34-36.[26]周世龍.單電源供電運算放大器設(shè)計方法[J].電子工程師,2005,(05):29-30.[27]鄭蓉.基于混合濾波器組ADC系統(tǒng)的多通道技術(shù)研究[D].電子科技大學,2017:53-55.[28]張冬冬.IIC總線通訊接口器件的CPLD實現(xiàn)[J].電子技術(shù)應(yīng)用,2002,(08):79-80.[29]趙新.基于PID算法的PWM單片機的帆板控制[J].信息與電腦(理論版),2016,(07):33-34.[30]王旭東,胡晴晴,吳楠.高精度室內(nèi)可見光定位算法[J].光電子·激光,2015,26(05):862-868.
附錄電路圖部分源代碼智能小車主要程序intleftCounter=0,rightCounter=0;unsignedlongtime=0,old_time=0;//時間標記unsignedlongtime1=0;//時間標記floatlv,rv;//左、右輪速度#defineSTOP0#defineFORWARD1#defineBACKWARD2#defineTURNLEFT3#defineTURNRIGHT4//超聲波傳感器#includeSoftwareSerialbtSerial(3,4);//Rx,Tx#include#defineTRIGGER_PIN8//Arduinopintiedtotriggerpinonpingsensor.#defineECHO_PIN7//Arduinopintiedtoechopinonpingsensor.#defineMAX_DISTANCE200//最大400-500cm.NewPingsonar(TRIGGER_PIN,ECHO_PIN,MAX_DISTANCE);//NewPingsetupofpinsandmaximumdistance.unsignedintpingSpeed=100;//Howfrequentlyarewegoingtosendoutaping(inmilliseconds).50mswouldbe20timesasecond.unsignedlongpingTimer;//Holdsthenextpingsr=0;//超聲波濾波intFilter_Value;//電機驅(qū)動intinput1=5;//定義uno的pin5向input1輸出intinput2=6;//定義uno的pin6向input2輸出intinput3=9;//定義uno的pin9向input3輸出intinput4=10;//定義uno的pin10向input4輸出intspeedu=97;//速度intspeed=123;//速度inturst=48;Stringcmd="";voidsetup(){//putyoursetupcodehere,torunonce:Serial.begin(9600);btSerial.begin(9600);//bluetoothmodulebaudrateattachInterrupt(0,RightCount_CallBack,FALLING);//attachInterrupt(1,LeftCount_CallBack,FALLING);//要檢測引腳上輸入的脈沖寬度,需要先設(shè)置為輸入狀態(tài)pinMode(input1,OUTPUT);pinMode(input2,OUTPUT);pinMode(input3,OUTPUT);pinMode(input4,OUTPUT);}voidloop(){//測速模塊啟動SpeedDetection();SR04();Filter_Value=Filter();//獲得濾波器輸出值delay(50);////Serial.println(Filter_Value);//看看超聲波值正不正常//stop();//if(Filter_Value>15)//{if(Filter_Value>15||Filter_Value==0){if(btSerial.available()>0){cmd=btSerial.read();//讀取藍牙模塊發(fā)送到串口的數(shù)據(jù)urst=cmd.toInt()-48;motorRun(urst);}}elseif(Filter_Value>1&&Filter_Value<=15){stop();delay(50);urst=48;H();delay(50);stop();delay(20);R();delay(200);stop();delay(20);UP();delay(400);stop();delay(20);L();delay(200);stop();delay(50);urst=48;}//if(Filter_Value>15)//{//if(btSerial.available()>0)//{//charcmd=btSerial.read();//讀取藍牙模塊發(fā)送到串口的數(shù)據(jù)//Serial.println(Filter_Value);//motorRun(cmd);////}}/***速度計算*/boolSpeedDetection(){time=millis();//以毫秒為單位,計算
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 二零二五年度國際會議及展覽活動宣傳推廣合同3篇
- 二零二五年度建筑管道系統(tǒng)安裝服務(wù)合同2篇
- 2025年度個人委托新能源儲能技術(shù)投資合同3篇
- 商鋪售后返租合同中的履約保障與爭議解決(2025年版)2篇
- 二零二五年度建筑玻璃幕墻工程勞務(wù)分包及安全評估協(xié)議3篇
- 2025年度氣體滅火系統(tǒng)研發(fā)與生產(chǎn)合作協(xié)議
- 二零二五年度城市綠化帶植物病蟲害防治合同3篇
- 2025版壓路機設(shè)備翻新改造與租賃合同范本3篇
- 二零二五年度商用機動車買賣合同范本3篇
- 高速公路交通安全宣傳教育活動合同(二零二五版)3篇
- 場地委托授權(quán)
- 2024年四川省成都市龍泉驛區(qū)中考數(shù)學二診試卷(含答案)
- 項目工地春節(jié)放假安排及安全措施
- 印染廠安全培訓課件
- 紅色主題研學課程設(shè)計
- 胸外科手術(shù)圍手術(shù)期處理
- 裝置自動控制的先進性說明
- 《企業(yè)管理課件:團隊管理知識點詳解PPT》
- 移動商務(wù)內(nèi)容運營(吳洪貴)任務(wù)二 軟文的寫作
- 英語詞匯教學中落實英語學科核心素養(yǎng)
- 《插畫設(shè)計》課程標準
評論
0/150
提交評論