




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
深度學(xué)習(xí)課程介紹課程介紹導(dǎo)論人工智能概述深度學(xué)習(xí)發(fā)展歷程神經(jīng)網(wǎng)絡(luò)的張量與數(shù)學(xué)基礎(chǔ)張量的操作與運(yùn)算深度學(xué)習(xí)的數(shù)學(xué)基礎(chǔ)前饋神經(jīng)網(wǎng)絡(luò)前饋神經(jīng)網(wǎng)絡(luò)的基本組件梯度下降與反向傳播算法過擬合現(xiàn)象及對(duì)應(yīng)策略神經(jīng)網(wǎng)絡(luò)的Pytorch實(shí)現(xiàn)線性回歸案例:顏值打分邏輯回歸案例:性別識(shí)別多分類回歸案例:Fashion-MNIST拓展:目標(biāo)定位、語義分割相關(guān)應(yīng)用卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)卷積與池化操作LeNet-5用于手寫數(shù)字識(shí)別經(jīng)典CNN模型介紹AlexNet等四種經(jīng)典CNN模型批歸一化和數(shù)據(jù)增強(qiáng)技術(shù)遷移學(xué)習(xí)序列模型RNN與LSTM模型編碼-解碼結(jié)構(gòu)用于機(jī)器翻譯拓展:注意力機(jī)制深度生成模型(自學(xué))自編碼器/變分自編碼器生成式對(duì)抗網(wǎng)絡(luò)拓展:AI輔助診斷應(yīng)用介紹使用教材第一章:深度學(xué)習(xí)簡(jiǎn)介學(xué)習(xí)目標(biāo)人工智能的定義與發(fā)展歷史深度學(xué)習(xí)的概念與適用領(lǐng)域深度學(xué)習(xí)與機(jī)器學(xué)習(xí)、人工智能、回歸分析的關(guān)系常用的深度學(xué)習(xí)框架深度學(xué)習(xí)、機(jī)器學(xué)習(xí)與人工智能機(jī)器學(xué)習(xí)、深度學(xué)習(xí)與人工智能的關(guān)系人工智能、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)之間的關(guān)系可以用下圖說明。人工智能人工智能(ArtificialIntelligence)研究領(lǐng)域的確定:1956年達(dá)特茅斯會(huì)議人工智能(AI)的定義:讓機(jī)器的行為看起來就像是人所表現(xiàn)出的智能行為一樣(JohnMcCarthy)人工智能主要領(lǐng)域:感知:模擬人的感知能力,如語音信息處理、計(jì)算機(jī)視覺學(xué)習(xí):模擬人的學(xué)習(xí)能力,如監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)、強(qiáng)化學(xué)習(xí)認(rèn)知:模擬人的認(rèn)知能力,自然語言處理、推理、決策、規(guī)劃等人工智能的發(fā)展歷程萌芽期復(fù)蘇期快速發(fā)展期圖靈測(cè)試達(dá)特茅斯會(huì)議聊天機(jī)器人專家系統(tǒng)“深藍(lán)”獲勝神經(jīng)網(wǎng)絡(luò)興起AlphaGo獲勝低谷期計(jì)算性能不足問題復(fù)雜度提升數(shù)據(jù)量不足構(gòu)建算法使機(jī)器自動(dòng)地從數(shù)據(jù)中學(xué)習(xí)人工智能的流派符號(hào)主義(Symbolism)代表人物:MarvinMinsky假設(shè):信息可以通過符號(hào)表示;符號(hào)可以通過邏輯運(yùn)算來操作連接主義(Connectionism)代表人物:FrankRosenblatt、GeoffreyHinton、吳恩達(dá)、李飛飛等認(rèn)為人的認(rèn)知過程是由大量簡(jiǎn)單的神經(jīng)元構(gòu)成的神經(jīng)網(wǎng)絡(luò)處理信息的過程,而不是符號(hào)運(yùn)算過程。機(jī)器學(xué)習(xí)機(jī)器學(xué)習(xí)(MachineLearning)是指如果一個(gè)程序可以在任務(wù)T上,隨著經(jīng)驗(yàn)E的增加,效果P也可以隨之增加,則稱這個(gè)程序可以從經(jīng)驗(yàn)中學(xué)習(xí)。這一定義由卡內(nèi)基梅隆大學(xué)(CarnegieMellonUniversity)的湯姆·邁克爾·米切爾(TomMichaelMitchell)教授在其1997年出版的《MachineLearning(機(jī)器學(xué)習(xí))》一書中提出。通俗的說就是:從有限的觀測(cè)數(shù)據(jù)中學(xué)習(xí)出具有一般性的規(guī)律,并利用這些規(guī)律對(duì)未知數(shù)據(jù)進(jìn)行預(yù)測(cè)的方法。機(jī)器學(xué)習(xí)是人工智能的重要分支。機(jī)器學(xué)習(xí)的分類監(jiān)督學(xué)習(xí)(SupervisedLearning)是指從已標(biāo)注的訓(xùn)練數(shù)據(jù)中學(xué)習(xí)判斷數(shù)據(jù)特征,并將其用于對(duì)未標(biāo)注數(shù)據(jù)的判斷的一種方法。無監(jiān)督學(xué)習(xí)(UnsupervisedLearning)不同于監(jiān)督學(xué)習(xí),它的學(xué)習(xí)算法是從沒有標(biāo)注的訓(xùn)練數(shù)據(jù)中學(xué)習(xí)數(shù)據(jù)的特征。什么樣的人容易信用卡逾期?“逾期用戶”機(jī)器學(xué)習(xí)從銀行信用卡數(shù)據(jù)庫(kù)中隨機(jī)選取用戶(訓(xùn)練數(shù)據(jù)),列出每個(gè)用戶的所有特征:如性別,年齡,是否有住房貸款,信用卡額度,存款等以及逾期狀態(tài)(輸出變量):是否有逾期、逾期天數(shù)。設(shè)計(jì)一個(gè)學(xué)習(xí)算法來學(xué)習(xí)用戶的特征與輸出變量之間的相關(guān)性模型。下次再有用戶進(jìn)行信用卡申請(qǐng)時(shí),可以根據(jù)用戶(測(cè)試數(shù)據(jù))的特征,使用前面計(jì)算的模型來預(yù)測(cè)用戶未來的逾期情況。機(jī)器學(xué)習(xí):構(gòu)建映射函數(shù)語音識(shí)別圖像識(shí)別圍棋機(jī)器翻譯“熊大”“早上好”“5-5”“我愛你”“Iloveyou”(落子位置)機(jī)器學(xué)習(xí)模型的步驟結(jié)果數(shù)據(jù)預(yù)處理特征提取特征轉(zhuǎn)換預(yù)測(cè)原始數(shù)據(jù)特征處理和預(yù)測(cè)一般是分開進(jìn)行的根據(jù)人的經(jīng)驗(yàn)選取好的特征,特征工程很重要如何將輸入信息轉(zhuǎn)換成更有效的特征,以提高預(yù)測(cè)模型的準(zhǔn)確率表示學(xué)習(xí)表示學(xué)習(xí)(RepresentationLearning):自動(dòng)學(xué)習(xí)有效特征并提高機(jī)器學(xué)習(xí)模型的效能兩個(gè)核心問題:什么是好的表示?如何學(xué)習(xí)好的表示?好的表示應(yīng)具有的特征很強(qiáng)的表示能力可以包含更高層的語義信息更具一般性,容易遷移到其他任務(wù)中顏色局部表示(one-hot)分布式表示(RGB)琥珀色[1,0,0,0][1.00,0.75,0.00]天藍(lán)色[0,1,0,0][0.00,0.50,1.00]中國(guó)紅[0,0,1,0][0.67,0.22,0.12]咖啡色[0,0,0,1][0.44,0.31,0.22]深度學(xué)習(xí)需要構(gòu)建具有一定“深度”的模型,通過學(xué)習(xí)算法讓模型自動(dòng)學(xué)習(xí)出好的特征,從而最終提升預(yù)測(cè)模型的準(zhǔn)確率。需要從底層特征開始,經(jīng)過多次非線性變換才能得到更高層語義的表示,而深層結(jié)構(gòu)可以增加特征的重復(fù)使用。深度學(xué)習(xí)多采取的是神經(jīng)網(wǎng)絡(luò)模型。結(jié)果底層特征中層特征高層特征預(yù)測(cè)原始數(shù)據(jù)深度學(xué)習(xí)與機(jī)器學(xué)習(xí)的區(qū)別二者提取特征的方式不同:深度學(xué)習(xí)具備自動(dòng)提取抽象特征的能力,機(jī)器學(xué)習(xí)大多是手動(dòng)選取特征和構(gòu)造特征。機(jī)器學(xué)習(xí)特征提取深度學(xué)習(xí)特征提取深度學(xué)習(xí)與回歸分析回歸分析理論框架回歸分析是確定兩種或兩種以上變量間相互依賴的定量關(guān)系的一種統(tǒng)計(jì)分析方法,可以用如下公式表示。Y=f(X,ε)其中各參數(shù)的含義如下:Y:因變量。X:所有可能影響的因素。Ε:噪聲項(xiàng)f:鏈接函數(shù)深度學(xué)習(xí)與回歸分析的關(guān)系深度學(xué)習(xí)就是一個(gè)高度復(fù)雜的非線性回歸模型,這是因?yàn)樗耆仙厦嫠f的Y=f(X,ε)理論框架。舉例說明深度學(xué)習(xí)是如何被規(guī)范成回歸分析問題。通過人臉猜測(cè)年齡和性別圖像以像素的形式存儲(chǔ),像素越多,圖像包含的信息越多,也就越清晰。這是一個(gè)1
024像素×1
024像素×3的原圖,說明這張圖像由3個(gè)1
048
576像素的矩陣組成,每個(gè)像素矩陣以1
024行1
024列的形式排列。
課堂思考深度學(xué)習(xí)發(fā)展歷程萌芽期普遍認(rèn)為人工智能誕生于1956年達(dá)特茅斯會(huì)議,但人工神經(jīng)網(wǎng)絡(luò)的誕生要更早。M-P模型,1943年,沃倫·麥卡洛克(WarrenMcCulloch)和沃爾特·皮茲(WalterPitts)生物神經(jīng)元人工神經(jīng)元:M-P模型萌芽期感知機(jī)(Perceptron),Rosenblatt,Frank.ThePerceptron--APerceivingandRecognizingAutomaton.TechnicalReport,Cornell1957MarvinMinskyandSeymourPapert.Perceptrons:AnIntroductiontoComputationalGeometry.MITPress1969.什么是異或問題?與門:兩個(gè)輸入均為1時(shí)輸出為1;與非門:兩個(gè)輸入均為1是輸出為0或門:只要有一個(gè)信號(hào)是1輸出就是1;異或門:僅當(dāng)有一個(gè)輸入為1時(shí)輸出才為1000100010111001101011110000101011111000101011110什么是異或問題?發(fā)展期多層感知機(jī)(MLP)反向傳播算法(Backpropagation,
BP),DavidE.Rumelhart,GeoffreyHinton,RonaldJ.Willians.LearningRepresentationsbyBack-propagatingErrors.Nature,1986.低谷期人工神經(jīng)網(wǎng)絡(luò)并沒有沿著深度的方向繼續(xù)發(fā)展受限于當(dāng)時(shí)的計(jì)算能力缺乏大規(guī)模高質(zhì)量的訓(xùn)練數(shù)據(jù)神經(jīng)網(wǎng)絡(luò)本身就是一個(gè)黑箱20世紀(jì)90年代末,支持向量機(jī)興起將數(shù)據(jù)維度提升,在高維空間中尋找將數(shù)據(jù)準(zhǔn)確劃分的方法在數(shù)據(jù)量不是很大時(shí)非常奏效發(fā)展期2006年,神經(jīng)網(wǎng)絡(luò)研究領(lǐng)域領(lǐng)軍者Hinton,辛頓提出了神經(jīng)網(wǎng)絡(luò)DeepLearning算法,指出如果我們能夠?qū)⑸窠?jīng)網(wǎng)路的層數(shù)加深并精心設(shè)計(jì)網(wǎng)絡(luò)訓(xùn)練方式,那么這種深層次的神經(jīng)網(wǎng)絡(luò)就會(huì)具有超強(qiáng)的表達(dá)能力和學(xué)習(xí)能力。HintonGE,SalakhutdinovRR.Reducingthedimensionalityofdatawithneuralnetworks.Science.2006;313(5786):504-507.深度學(xué)習(xí)時(shí)代2010年,由華裔女科學(xué)家李飛飛打造的大規(guī)模圖像數(shù)據(jù)庫(kù)ImageNet已經(jīng)收錄了100多萬張圖像。2012年,辛頓和他的兩個(gè)學(xué)生AlexKrizhevsky和IlyaSutskever提出了AlexNet,在ImageNet競(jìng)賽分類任務(wù)上首次將分類錯(cuò)誤率從25%降到17%。2012年以后,深度學(xué)習(xí)開始在學(xué)術(shù)圈流行起來。2013年,谷歌的TomasMikolov提出了Word2Vec技術(shù),為人工神經(jīng)網(wǎng)絡(luò)處理自然語言奠定了基礎(chǔ)。2016年,谷歌采取先進(jìn)的循環(huán)神經(jīng)網(wǎng)絡(luò)技術(shù)在機(jī)器翻譯上取得了接近人類的翻譯水平。2016年3月,AlphaGo橫空出世,預(yù)示著人工智能時(shí)代的到來。2022年12月,ChatGPT大語言模型被開發(fā)出來。CNN開山之作:LeNet-5卷積神經(jīng)網(wǎng)絡(luò),ConvolutionalNeuralNetworks[LeCunet.al.1989,
1998],Lecun,Y.,&Bottou,L..(1998).Gradient-basedlearningappliedtodocumentrecognition.
ProceedingsoftheIEEE,
86(11),2278-2324.階段性歷史總結(jié)微信公號(hào):狗熊會(huì)北京大學(xué)林宙辰教授報(bào)告:機(jī)器學(xué)習(xí)簡(jiǎn)史/v1/course/video/v_60686a45e4b09890f0e05cc8?app_id=appKfzfb4lZ6715&available=1&available_product=0&entry=2&entry_type=2001&payment_type=&product_id=&resource_id=v_60686a45e4b09890f0e05cc8&resource_type=3&scene=%E5%88%86%E4%BA%AB&share_type=5&share_user_id=u_5ec657074fc9a_yFVtC0wOLl&type=2深度學(xué)習(xí)的影響因素1、大數(shù)據(jù)深度學(xué)習(xí)的影響因素2、深度網(wǎng)絡(luò)架構(gòu)前饋神經(jīng)網(wǎng)絡(luò)(全連接網(wǎng)絡(luò))卷積神經(jīng)網(wǎng)絡(luò)(CNN)深度學(xué)習(xí)的影響因素2、深度網(wǎng)絡(luò)架構(gòu)循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)更多網(wǎng)絡(luò)架構(gòu)(編碼-解編碼)深度學(xué)習(xí)的影響因素GPU:擅長(zhǎng)大規(guī)模張量計(jì)算常見的深度學(xué)習(xí)框架深度學(xué)習(xí)為何如此成功特征學(xué)習(xí)(representationlearning)layer1、layer2學(xué)習(xí)到的特征基本上是顏色、邊緣等低層特征;layer3則開始稍微變得復(fù)雜,學(xué)習(xí)到的是紋理特征,比如上面的一些網(wǎng)格紋理;layer4學(xué)習(xí)到的則是比較有區(qū)別性的特征,比如狗頭;layer5學(xué)習(xí)到的則是完整的,具有辨別性關(guān)鍵特征。MDZeiler,&Fergus,R..(2013).VisualizingandUnderstandingConvolutionalNeuralNetworks.EuropeanConferenceonComputerVision.SpringerInternationalPublishing.深度學(xué)習(xí)為何如此成功遷移學(xué)習(xí)(transferlearning)前面已經(jīng)訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取再將這個(gè)特征提取器與后面的網(wǎng)絡(luò)拼接從而解決一個(gè)完全不同的問題有了特征提取和遷移學(xué)習(xí),可以實(shí)現(xiàn)端到端(endtoend)的學(xué)習(xí),即輸入原始數(shù)據(jù),深度神經(jīng)網(wǎng)絡(luò)輸出最終的結(jié)果。ImageNet數(shù)據(jù)集介紹/超過1400萬張手工標(biāo)注的圖片,包含2萬多個(gè)類別ILSVRC挑戰(zhàn)賽提供1000類分類圖片“深度”的發(fā)
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- DB31/T 1154-2019手術(shù)室X射線影像診斷放射防護(hù)及檢測(cè)要求
- DB31/T 1089-2018環(huán)境空氣有機(jī)硫在線監(jiān)測(cè)技術(shù)規(guī)范
- DB31/ 970-2016建筑用人造石單位產(chǎn)品能源消耗限額
- DB31/ 807.2-2015重點(diǎn)單位保安服務(wù)要求第2部分:特殊勤務(wù)保安
- DB31/ 329.8-2014重點(diǎn)單位重要部位安全技術(shù)防范系統(tǒng)要求第8部分:旅館、商務(wù)辦公樓
- 2025餐廳經(jīng)理勞動(dòng)合同模板
- 網(wǎng)絡(luò)安全政策與規(guī)范試題及答案
- 藝術(shù)創(chuàng)意園區(qū)入駐企業(yè)與運(yùn)營(yíng)管理協(xié)議
- 數(shù)字媒體廣告內(nèi)容原創(chuàng)版權(quán)授權(quán)合同
- 2025年中國(guó)包裝箱制造行業(yè)市場(chǎng)前景預(yù)測(cè)及投資價(jià)值評(píng)估分析報(bào)告
- 3第三章申論寫作 寫作課件
- 廣西建設(shè)工程質(zhì)量檢測(cè)和建筑材料試驗(yàn)收費(fèi)項(xiàng)目及標(biāo)準(zhǔn)指導(dǎo)性意見(新)2023.10.11
- 商戶撤場(chǎng)退鋪驗(yàn)收單
- 國(guó)開電大 可編程控制器應(yīng)用實(shí)訓(xùn) 形考任務(wù)5實(shí)訓(xùn)報(bào)告
- PEP英語四年級(jí)下冊(cè)U5 My clothes Read and write(教學(xué)課件)
- DB37-T 2671-2019 教育機(jī)構(gòu)能源消耗定額標(biāo)準(zhǔn)-(高清版)
- 信息系統(tǒng)項(xiàng)目管理師論文8篇
- (完整版)重大危險(xiǎn)源清單及辨識(shí)表
- 試驗(yàn)室儀器設(shè)備檢定校準(zhǔn)證書和測(cè)試報(bào)告確認(rèn)表(公司范本)
- 《傳媒翻譯》教學(xué)大綱
- 新工科的建設(shè)和發(fā)展思考ppt培訓(xùn)課件
評(píng)論
0/150
提交評(píng)論