【基于人工智能環(huán)境下的小樣本圖像分類算法研究開題報(bào)告(含提綱)2400字】_第1頁(yè)
【基于人工智能環(huán)境下的小樣本圖像分類算法研究開題報(bào)告(含提綱)2400字】_第2頁(yè)
【基于人工智能環(huán)境下的小樣本圖像分類算法研究開題報(bào)告(含提綱)2400字】_第3頁(yè)
【基于人工智能環(huán)境下的小樣本圖像分類算法研究開題報(bào)告(含提綱)2400字】_第4頁(yè)
【基于人工智能環(huán)境下的小樣本圖像分類算法研究開題報(bào)告(含提綱)2400字】_第5頁(yè)
免費(fèi)預(yù)覽已結(jié)束,剩余2頁(yè)可下載查看

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

畢業(yè)論文(設(shè)計(jì))題目基于人工智能環(huán)境下的小樣本圖像分類算法研究題目類型題目來(lái)源院(系)專業(yè)指導(dǎo)教師職稱姓名年級(jí)學(xué)號(hào)一、立題依據(jù)(國(guó)內(nèi)外研究進(jìn)展或選題背景、研究意義等)1.研究背景作為顛復(fù)性技術(shù),人工智能正在推動(dòng)傳統(tǒng)產(chǎn)業(yè)轉(zhuǎn)型,引領(lǐng)新興產(chǎn)業(yè)發(fā)展。工業(yè)創(chuàng)新深刻改變了人類的生產(chǎn)和生活方式,對(duì)經(jīng)濟(jì)和社會(huì)發(fā)展產(chǎn)生了巨大影響。世界各國(guó)都高度重視人工智能技術(shù)的發(fā)展,中國(guó)在“十四五規(guī)劃”中,新一代人工智能技術(shù)被認(rèn)為是加快科技發(fā)展、產(chǎn)業(yè)優(yōu)化升級(jí)的動(dòng)力,生產(chǎn)力全面提升背后的驅(qū)動(dòng)力。在大數(shù)據(jù)時(shí)代,人工智能領(lǐng)域已成成為了眾多學(xué)者主要研究的方向。在傳統(tǒng)的計(jì)算機(jī)工作中,需要對(duì)大量樣品進(jìn)行標(biāo)記。當(dāng)樣品不足時(shí),模型性能會(huì)嚴(yán)重下降,從而影響平衡問(wèn)題。事實(shí)上,建立一個(gè)標(biāo)準(zhǔn)數(shù)據(jù)集需要大量的人力和物力資源,并非所有任務(wù)都能獲得大量的帶標(biāo)簽樣本。解決這個(gè)問(wèn)題的一種方法是將圖像分類任務(wù)的研究工作集中在小樣本學(xué)習(xí)技術(shù)上。在一些特殊行業(yè)和領(lǐng)域,很難獲得大量數(shù)據(jù)。例如,在醫(yī)學(xué)領(lǐng)域,所有病理圖像都是從病例中產(chǎn)生的。因?yàn)槭占@樣的圖像涉及患者的隱私,所以我們很難從病理圖像中獲得大量信息,少量圖像不足以幫助機(jī)器分析病理圖像。盡管人工智能技術(shù)展現(xiàn)出強(qiáng)大的能力,但讓機(jī)器學(xué)會(huì)像人一樣完成任務(wù)之前,還需要做的事情之一,就是讓機(jī)器從很少的數(shù)據(jù)中快速歸納出正在執(zhí)行的任務(wù)。人類能夠在獲取少量數(shù)據(jù)的情況下,對(duì)數(shù)據(jù)進(jìn)行分類和識(shí)別,并且具有快速理解新的概念并將其泛化的能力。例如,基于對(duì)物體的識(shí)別能力,人類很容易從大量的照片中辨認(rèn)出某個(gè)陌生人;人類一開始只認(rèn)識(shí)貓,不認(rèn)識(shí)老虎,但他只看了一眼老虎的照片,當(dāng)某天去動(dòng)物園的時(shí)候,就很容易分辨出老虎,而不會(huì)將其當(dāng)做貓。當(dāng)然,機(jī)器也可以做到幾乎和人類一樣媲美的程度,不同的是,機(jī)器需要依賴于大量的數(shù)據(jù)。這也是目前擁有人工智能的機(jī)器和人類在學(xué)習(xí)方面之間的一個(gè)主要差距。2.研究意義小樣本學(xué)習(xí)圖像分類算法的應(yīng)用除了有助于減輕收集大型數(shù)據(jù)集的負(fù)擔(dān)外,應(yīng)用小樣本學(xué)習(xí)圖像分類算法也可以被用來(lái)測(cè)試真實(shí)的人工智能。前者解決了現(xiàn)實(shí)生活中遇到的更多問(wèn)題。許多領(lǐng)域的服務(wù)都是由于人工智能技術(shù)的普及和發(fā)展,例如在計(jì)算機(jī)領(lǐng)域,人工智能技術(shù)已經(jīng)解決了許多困難的問(wèn)題。在醫(yī)療領(lǐng)域,在計(jì)算機(jī)科學(xué)領(lǐng)域,人工智能技術(shù)已經(jīng)解決了其中許多的難題。在金融領(lǐng)域,銀行利用人工智能技術(shù)來(lái)協(xié)助金融資產(chǎn)的投資與管理。在醫(yī)學(xué)領(lǐng)域,人工智能技術(shù)可以用來(lái)輔助臨床診斷并進(jìn)行相關(guān)決策。在涉及到重工業(yè)領(lǐng)域,機(jī)器人已經(jīng)普遍被用于替代人類完成一些危險(xiǎn)的工作。因此,研究小樣本圖像分類算法對(duì)涉及我們生活各個(gè)方面的技術(shù)問(wèn)題是有益的,且對(duì)于人工智能技術(shù)的發(fā)展和普及也有著重要的意義。研究的主要內(nèi)容及預(yù)期目標(biāo)1.緒論1.1研究目的1.2研究意義1.3研究綜述2.小樣本圖像分類技術(shù)概述2.1小樣本圖像分類的流程2.2小樣本圖像分類算法理論基礎(chǔ)2.2.1神經(jīng)網(wǎng)絡(luò)2.2.2殘差網(wǎng)絡(luò)3.小樣本圖像分類算法3.1小樣本圖像分類的原型網(wǎng)絡(luò)3.1.1原型網(wǎng)絡(luò)的整體結(jié)構(gòu)3.1.2原型網(wǎng)絡(luò)的特征提取網(wǎng)絡(luò)3.1.3原型網(wǎng)絡(luò)的分類策略與訓(xùn)練策略3.2小樣本圖像分類的關(guān)系網(wǎng)絡(luò)3.2.1關(guān)系網(wǎng)絡(luò)的整體結(jié)構(gòu)3.2.2關(guān)系網(wǎng)絡(luò)的分類與訓(xùn)練策略3.2.3關(guān)系網(wǎng)絡(luò)的網(wǎng)絡(luò)結(jié)構(gòu)4.結(jié)論本論文主要分四大部分,第一部分為緒論內(nèi)容,主要針對(duì)課題的研究介紹,如:研究目的、研究意義、研究綜述等。隨后是論文的第二部分,主要是對(duì)理論的綜述,如小樣本圖像分類的流程、小樣本分類算法的理論基礎(chǔ)。之后則是論文的第三部分結(jié)構(gòu),小樣本圖像分類算分的介紹,分別分析了小樣本圖像分類算法中的原型網(wǎng)絡(luò)構(gòu)建,以及小樣本圖像分類的關(guān)系網(wǎng)絡(luò)構(gòu)建。最后則是論文的結(jié)論部分。通過(guò)合理的安排,結(jié)合現(xiàn)有的資料,在指導(dǎo)老師的幫助下,完成本課題的研究。三、研究方案(思路)筆者以人工智能領(lǐng)域?yàn)檠芯壳锌冢S后在此基礎(chǔ)上,再對(duì)研究?jī)?nèi)容進(jìn)行細(xì)化,定位到人工智能領(lǐng)域中的小樣本學(xué)習(xí)技術(shù)方向,之后再次精細(xì)化研究?jī)?nèi)容,將本次課題研究引入到小樣本圖像分類算法上,進(jìn)而避免研究課題泛泛而談的問(wèn)題,同時(shí)也使得研究課題由面到點(diǎn),逐步細(xì)化。四、論文進(jìn)度安排2021年12月1日----2022年1月31日:查閱資料、確定選題2022年2月1日----2021年2月28日:下達(dá)任務(wù)書、開題報(bào)告2022年3月1日----2022年3月20日:完成任務(wù)書、開題報(bào)告2022年3月21日----2022年4月1日:教師審閱開題報(bào)告,完成開題2022年4月2日----2022年4月15日:撰寫畢業(yè)論文2022年4月16日----2022年5月5日:指導(dǎo)教師評(píng)閱、評(píng)閱老師評(píng)閱2022年5月6日----2022年5月15日:完善畢業(yè)論文、準(zhǔn)備畢業(yè)答辯五、主要參考文獻(xiàn)VinyalsO,BlundellC,LillicrapT,KavukcuogluK,WierstraD.Matchingnetworksforoneshotlearning[C].In:AdvancesinNeuralInformationProcessingSystems.2016:3637-3645.TriantafillouE,ZemelR,UrtasunR.Few-shotlearningthroughaninformationretrievallens[C].In:AdvancesinNeuralInformationProcessingSystems.2017:2256-2266.BertinettoL,HenriquesJ,ValmadreJ,TorrP,VedaldiA.Learningfeed-forwardone-shotlearners[C].In:AdvancesinNeuralInformationProcessingSystems.2016:523-531.PfisterT,CharlesJ,ZissermanA.Domain-adaptivediscriminativeone-shotlearningofgestures[C].In:EuropeanConferenceonComputerVision.2014:814–829.DongX,ZhuL,ZhangD,YangY,WuF.FastParameterAdaptationforFew-shotImageCaptioningandVisualQuestionAnswering[C].In:Proceedingsofthe26thACMinternationalconferenceonmultimedia.2018:54-62.YanW,YapJ,MoriW.Multi-TaskTransferMethodstoImproveOne-ShotLearningforMultimediaEventDetection[C].In:BritishMachineVisionConference.Citeseer.2015.]BrockA,LimT,RitchieJ,WestonM.SMASH:One-ShotModelArchitectureSearchthroughHyperNetworks[C].In:InternationalConferenceonLearningRepresentations.2018.Altae-TranH,RamsundarB,PappuA,PandeV.LowDataDrugDiscoverywithOne-ShotLearning[J].In:ACScentralscience.2017,3(4):283-293.KaiserL,NachumO,RoyA,BengioS.Learningtorememberrareevents[C].In:InternationalConferenceonLearningRepresentations.2017.VartakM,ThiagarajanA,MirandaC,BratmanJ,LarochelleH.Ameta-learningperspectiveoncold-startrecommendationsforitems[C].In:AdvancesinNeuralInformationProcessingSystems.2017:6905-6915.MunkhdalaiT,YuH.Metanetworks[C].In:Internationalconferenceonmachinelearning.2017:345-355.MunkhdalaiT,YuanX,MehriS,TrischlerA.Rapidadaptationwithconditionallyshiftedneurons[C].In:InternationalConferenceonMachineLearning.2018:5898-5909.RaviS,LarochelleH.Optimizationasamodelforfew-shotlearning[C].In:InternationalConferenceonLearningRepresentations.2017.FinnC,AbbeelP,LevineS.Model-agnosticmeta-learningforfastadaptationofdeepnetworks[C].In:InternationalConferenceonMachineLearning.2017:1856-1868.RusuA,RaoD,SygnowskiJ,VinyalsO,PascanuR,OsinderoS,Hadsell,R.Meta-learningwithlatentembeddingoptimization[C].In:InternationalConferenceonLearningRepresentations.2019.LeeY,ChoiS.Gradient-basedmeta-learningwithlearnedlayerwisemetricandsubspace.[C].In:InternationalConferenceonMachineLearning.2018:4574-4586.FranceschiL,FrasconiP,SalzoS,GrazziR,PontilM.BilevelProgrammingforHyperparameterOptimizationandMeta-Learning[C].In:InternationalConferenceonMachineLearning.2018:2537-2548.SnellJ,SwerskyK,ZemelR.Prototypicalnetworksforfew-shotlearning[C].AdvancesinNeuralInformationProcessingSystems.2017:4078-4088.SungF,YangY,ZhangL,XiangT,TorrP,HospedalesT.LearningtoCompare:RelationNetworkforFew-ShotLearning[C].In:ProceedingsoftheIEEEComputerSocietyConferenceonComputerVisionandPatternRecognition.2018:1199-1208.LiuY,LeeJ,ParkM,KimS,YangE,HwangS,Yang,Y.Learningtopropagatelabels:Transductivepropagationnetworkforfew-shotlearning[C].In:InternationalConferenceonLearningRepresentations.2019.OreshkinB,RodríguezLópezP,LacosteA.Tadam:Taskdependentadaptivemetricforimprovedfew-shotlearning[C].In:NeuralInformationProcessingSystems.2018.QiaoS,LiuC,ShenW,YuilleA.Few-ShotImageRecognitionbyPredictingParametersfromActivations[C].In:ProceedingsoftheIEEEComputerSocietyConferenceonComputerVisionandPatternRecognition.2018:7229-7238.PanS,TsangI,KwokJ,YangQ.DomainAdaptationviaTransferComponentAnalysis[J].In:IEEEtransactionsonneuralnetworks.2011;22(2):199-210.YangJ,YanR,HauptmannA.AdaptingSVMClassifierstoDatawithShiftedDistributions[C].In:IEEEInternationalConferenceonDataMiningWorkshops.2007:69-76.WeiY,ZhangY,HuangJ,YangQ.Transferlearningvialearningtotransfer[C].In:InternationalConferenceonMachineLearning.2018:8059-8068.ZamirA,SaxA,ShenW,GuibasL,MalikJ,SavareseS.Taskonomy:DisentanglingTaskTransferLearning[C].In:ProceedingsoftheIEEEComputerSocietyConferenceonComputerVisionandPatternRecognition.2018:3712-3722.ErhanD,BengioY,CourvilleA,ManzagolP,VincentP,BengioS.Whydoesunsupervisedpre-traininghelpdeeplearning?[J]In:Journalofmachinelearningresearch.2010,11(2):625-660.HuangJ,RathodV,SunC.Speed/accuracytrade-offsformodernconvolutionalobjectdetectors[C].In:ProceedingsoftheIEEEComputerSocietyConferenceonComputerVisionandPatternRecognition.2017:3296-3305.ChenL,PapandreouG,KokkinosI,MurphyK,YuilleA.DeepLab:SemanticImageSegmentationwithDeepConvolutionalNets,AtrousConvolution,andFullyConnectedCRFs[J].In:IEEEtransactionsonpatternanalysisandmachineintelligence.2018,40(4):834-848.ChenW,LiuY,KiraZ,WangY,HuangJ.ACloserLookat

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論