《工業大數據導論》 課件 第7章 工業大數據與新一代人工智能_第1頁
《工業大數據導論》 課件 第7章 工業大數據與新一代人工智能_第2頁
《工業大數據導論》 課件 第7章 工業大數據與新一代人工智能_第3頁
《工業大數據導論》 課件 第7章 工業大數據與新一代人工智能_第4頁
《工業大數據導論》 課件 第7章 工業大數據與新一代人工智能_第5頁
已閱讀5頁,還剩57頁未讀 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

工業大數據與新一代人工智能目錄傳統人工智能與新一代人工智能新一代人工智能的基礎算法工業大數據在新一代人工智能的定位010203學習目標1.了解人工智能“三起兩落”的發展史以及每一階段的特征2.了解人工智能的基本概念、研究內容和實現方法3.了解新一代人工智能的研究內容及其去傳統人工智能的三大區別4.掌握深層神經網絡、卷積神經網絡、循環神經網絡的基本原理5.了解深度學習的發展方向6.了解工業大數據與新一代人工智能的關系01傳統人工智能與新一代人工智能傳統人工智能與新一代人工智能新一代人工智能及其與傳統人工智能區別人工智能發展史人工智能概述人工智能發展史自機械設備使人類從重復繁重的體力勞動中解放以來,人們還希望能從腦力勞動中解放出來,因而研究者們開始轉向智能化人工系統的研究。1956年,達特茅斯會議正式標志著人工智能研究進入第一次發展階段。斯坦福大學JohnMcCarthy教授麻省理工學院MarvinLeeMinsky教授卡內基梅隆大學HerbertSimont卡內基梅隆大學AllenNewell教授在美國召開的達特茅斯會議上正式確立“人工智能”為獨立的新興學科“信息理論之父”ClaudeElwoodShannonIBM公司NathanielRochester第一次發展與低谷階段知識人為提供,決策固化盡管這些成果在一定程度上可以代替人類重復性的腦力勞動,但當時的AI程序基本屬于確定性的輸入輸出,即輸入的對象特征、分析的規則都是人為制定,得到的輸出結果同樣是確定的,稱之為“知識人為提供,決策固化”。顯然,這也決定此類算法所能解決問題的局限性,導致第一次研究熱潮逐漸褪去。上世紀50~70年代是人工智能發展的第一次黃金時代。1.具有學習特性的“感知機模型”被提出2.“尤尼梅特”作為世界上首款工業機器人在通用公司生產線上服役工作3.IBM公司的360型計算機稱為第一款規模化生產的計算機等第二次發展階段知識人為提供,決策靈活知識層面決策層面上世紀80年代,人工智能開始復蘇。專家系統隨機算法專家系統是一種可模擬人類專家解決相關領域問題的計算機程序系統,它被眾多公司采納并實現了市場化應用。該系統由人機界面、知識庫、推理機、解釋器、綜合數據庫和知識獲取六大部分組成。計算機根據知識庫通過推理機對問題進行分析學習。以蒙特卡羅樹搜索算法為代表的隨機算法是將抽取樣本進行遍歷,減小計算量同時保障較優解來解決上述問題,這種選取較優解的方法使得決策更加靈活。隨機算法:蒙特卡羅樹搜索算法蒙特卡羅樹搜索(MonteCarloTreeSearch,MCTS)算法:它因賭博中多用到隨機算法而以賭城蒙特卡羅命名,其基本原理可通過簡易的“黑箱摸球”示例理解。假定黑箱中有100個相同大小的球,每球貼有數字,大小不一;隨機取一球,再隨機取一球,挑數字大者,如此循環,挑出的球的數字至少不比上一次所挑數字小;隨取球次數增加,挑出的數字越接近箱中最大數。簡言之,經一定搜索采樣后,選擇樣本最優者,其接近全局最優但不一定是全局最優。此類算法受歡迎在于:盡管遍歷數據集再作出決策固然能得到最優解,但當輸入為高維隨機變量時,可能的結果種類將達到指數級的數據量,這對計算機決策而言將造成維數災難,隨機算法采用折中辦法,既減小計算量又保障較優解,因而決策靈活。“深藍”戰勝國際象棋世界冠軍1997年,IBM公司的超級計算機“深藍”以3.5:2.5戰勝當時的國際象棋世界冠軍卡斯帕羅夫。盡管卡斯帕羅夫本人及部分人認為人有情緒波動而計算機無此缺陷,才使深藍“作弊”勉勝,但是——(1)當時的深藍計算機已使用專家系統,基于大量棋譜訓練集遍歷所有走法;(2)由于“下一步棋”的走法可能性過多,故通過蒙特卡羅樹搜索決定較優落子方法,使其在國際象棋方面有機會與頂級選手較量。因此,“深藍”的成功也標志著人工智能往前大跨一步,實現“知識人為提供,決策靈活”。第二次低谷階段2.人工神經網絡的理論模型可以解決專家系統的弊端,但其需要的超級計算能力與海量數據這兩大基礎在當時無法實現。1.專家系統終究是依賴于人類整理的知識庫,無法實現對更復雜問題的求解;因此,人工智能的研究熱再次熄滅。第三次發展階段知識自主學習,決策靈活2016年,區別于深藍的勉勝,Google公司的智能機器人AlphaGo以4:1的大比分戰勝圍棋世界冠軍李世石,甚至李世石本人也對AlphaGo棋藝的大幅進步而震驚。這一重大事件也標志著人工智能終于迎來全新發展階段。“深藍”AlphaGo深藍嚴格意義上只可稱為“手工”程序。保留深藍的優點基礎上,還真正實現自我學習的能力。李世石與AlphaGo的人機大戰第三次發展階段第三次發展源自計算機的計算量與海量數據兩大問題已不再是瓶頸,這也使得人工神經網絡得以發揮作用;且“評價網絡”與“策略網絡”兩種深層神經網絡成功應用于AlphaGo的圍棋算法中。1.評價網絡可根據當前局勢計算己方最終的勝率;2.策略網絡則可以判斷對手最可能的落子點;3.決策仍是基于蒙特卡羅樹搜索算法確定己方的下一步最佳落子點。受限于專家系統,深藍更多只可適用于國際象棋的對弈。AlphaGo的算法則因為人工神經網絡自學習知識的特點沒有領域限制,更容易實現泛化。盡管人工神經網絡往往在具備海量數據集的前提下才能發揮優勢,這與人類大腦對于任意領域均能實現基于少量樣例便可進行演繹推理的能力無法比擬,也正說明與強人工智能的愿景尚有差距,但技術的不斷突破與商業化應用無疑使人工智能更進一步。人工智能概述:基本概念人工智能(ArtificialIntelligence,AI)自誕生以來出現過多種定義。美國斯坦福大學人工智能研究中心的尼爾遜(Nelson)教授曾認為,“人工智能是關于知識的學科——即怎樣表示知識以及怎樣獲得知識并使用知識的科學。”美國麻省理工學院的溫斯頓(Winston)教授則定義,“人工智能就是研究如何使計算機去做過去只有人才能做的智能工作。”人工智能:研究人類智能活動的規律,通過計算機的軟硬件模擬、延伸和擴展人的某些思維過程和智能行為,從而創造出具有一定智能程度的人工系統。從另一個角度,人工智能雖是計算機科學的一個分支,但又涉及心理學、哲學、語言學等多種社會科學,已遠遠超出計算機科學的范疇,因此她可獨立成為一門研究智能理論、方法、技術及應用系統的新技術科學。人工智能概述:研究內容人類通過將小白鼠的聽覺中樞與視覺神經進行人為連接,發現聽覺中樞擁有視覺功能,驗證了包括人類在內的哺乳動物的大腦中各塊區域都擁有類似的學習機制,這為研究具有通用性智能的機器或稱為具備多元智能的系統提供了理論基礎。但是考慮到通用性智能的實現復雜性,研究者們決定先從單一模塊分別實現突破。人工智能研究內容人類特征眼耳口鼻舌等感官語言交流能力運動能力學習能力情感規劃知識庫自主感知自然語言處理運動與控制機器學習情感社交智能規劃知識表示法人工智能概述:研究內容【自主感知】包括機器視覺、計算機視覺等圖像處理類技術,以及機器聽覺、語音識別等技術;【自然語言處理】就狹義角度而言,即將語音識別的結果以及其他來源作為自然語言處理的素材,并轉化成適于另一群體使用的語言結果的技術;【運動控制】智能系統如智能機器人能根據環境完成正確的運動并實現自主控制的技術;【機器學習】模擬人類的學習行為獲取新的知識并實現知識的轉化應用,機器學習也是人工智能的核心技術,是計算機具備智能的根本途徑;【情感社交】計算機通過情感計算對人給予的反應作出表情、姿態、語氣等的變化,實現人機交互更加和諧;【智能規劃】通過建立自我的世界模型,并與真實世界進行對比,根據預測與現實的差別進行計劃的制定與調整;【知識表示法】通過邏輯表示法或產生式表示法等表示方法搭建常識知識庫,用作計算機決策的知識來源之一。此外,人類也具備創造力,即在某些特定情況下的一種不依賴于量變而產生質變的特殊模式,這也是人工智能尚待研究攻克的內容之一。人工智能概述:實現方法【機器學習】正如Google所言,“先解決智能問題,再用智能解決一切問題。”人的高級屬性在于可通過學習獲取知識,然后用于解決問題,并且良性循環,不斷提高;因而人工智能的關鍵就在于能否真正使計算機如人類一般進行學習和提高,這便是為什么機器學習是人工智能的核心技術。從學習策略角度,機器學習可進行如下分類。機器學習歸納學習:經驗性歸納學習事實上,分類與回歸問題本質上均為根據輸入對輸出作預測,而分類問題的輸出是一種定性輸出,即離散型變量;而回歸問題的輸出則是一種定量輸出,即連續型變量。經驗性歸納學習主要用于解決分類問題和回歸問題:分類可理解為數據劃分界限,譬如輸入人臉圖片輸出人物身份識別結果;回歸可理解為數據擬合,譬如輸入人臉圖片輸出人物年齡預測。經驗性歸納學習決策樹模型算法樸素貝葉斯模型算法支持向量機算法等邏輯回歸算法歸納學習:經驗性歸納學習決策樹模型決策樹模型(DecisionTreeModel,DTM)是在已知各種情況發生概率的基礎上,通過構成決策樹來求取各期望值的概率(非負數),評價事件風險來判斷其可行性的決策分析方法,是直觀運用概率分析的一種樹狀結構的圖解法,也是最簡單的歸納學習算法,并且決策過程近似于人類在社會環境中的邏輯思維過程。建立決策樹模型主要包括四項內容:1.模型欲實現的目標;2.根節點,表示訓練數據集;4.葉節點,表示模型的判定結果。3.內部節點,表示多層測試條件,以對數據進行分類純化;注:訓練數據集是已知特征屬性的數據樣本,是決策樹結構形成過程的數據源。歸納學習:經驗性歸納學習“高爾夫球場的顧客”問題在不同環境下,高爾夫球場的顧客量會出現很大的波動,這當然也會影響服務員人員的需求量。比如在下雨時,顧客量會很少,服務人員的需求量就會小,而在陰天時,顧客量可能就會多,服務人員的需求量自然就大。因此,球場可以記錄不同天氣情況下的顧客訪問量,從而預測出未來指定時間段內的服務人員需求量。日期天氣氣溫(℃)相對濕度(%)有/無風有/無顧客1晴2985無無2晴2790有無3多云2878無有4雨2196無有5雨2080無有6雨1870有無7多云1765有有8晴2295無無9晴2070無有10雨2480無有11晴2470有有12多云2290有有13多云2775無有14雨2180有無兩周高爾夫球場顧客數據集歸納學習:經驗性歸納學習“高爾夫球場的顧客”問題建立高爾夫球場顧客問題的決策樹模型:歸納學習:經驗性歸納學習“高爾夫球場的顧客”問題由此,本示例建立的決策樹模型將顧客打球時間與原因進行了有效的分類,并為將來的實際待測數據集提供了預測模型,即只要根據今后的天氣相關指標值便可推測出當日是否會有顧客光臨,從而靈活調整雇員數量,包括固定員工與臨時工的合理搭配等。1.單論天氣情況,可得出第一層結論,即多云天氣時,顧客總是喜歡打高爾夫球,而晴雨天則視情況而定;2.晴天時,顧客喜歡在相對濕度低于70的日子里打高爾夫球,或在雨天時,只要無風,也有狂熱的愛好者前來打球;但在晴雨天的其他情況下,顧客則不會選擇打球。上述決策樹模型的根節點的訓練數據集即來自“兩周高爾夫球場顧客數據集”表格,其中天氣、氣溫、相對濕度、有/無風等特征值為測試條件,且須遵從選擇可令子集純度更高的測試條件作為最優特征值進行劃分。根據決策樹模型可知:歸納學習:經驗性歸納學習樸素貝葉斯模型樸素貝葉斯模型(NaiveBayesianModel,NBM)算法也是一種基于概率論的預測算法。其核心法則是基于如下條件概率公式:

假設有特征:性別、有無紋身等,根據這些樣貌特征,我們訓練出一個標準的“好人模型”和“壞人模型”。這樣,當一個品行未知的人來以后,我們迅速獲取TA的樣貌特征向量,分布輸入“好人模型”和“壞人模型”,得到兩個概率值。如果“壞人模型”輸出的概率值大一些,那這個人很有可能就是個大壞蛋了。歸納學習:經驗性歸納學習邏輯回歸支持向量機支持向量機(SupportVectorMachine,SVM)算法通過尋找兩個平行的超平面并使之距離最大化實現分類。邏輯回歸(LogisticRegression,LR)算法通過擬合曲線實現分類或回歸。盡管用于分類的算法眾多,但因各自優缺點而有各自的適用范圍。1.決策樹的優點在于屬于白盒模型,即無需專業解讀,具有天然的解釋性;但缺點在于對異常值敏感,易導致樹結構的巨大變化,以及對未出現過的值束手無策導致泛化能力不足;2.樸素貝葉斯模型優點是其源于古典數學理論,分類效率穩定,且對缺失數據不敏感;但其缺點在于各個特征相互獨立的假設在實際應用中往往不成立,這對概率計算值的真實性造成影響;3.邏輯回歸的優點是其計算代價低,易于實現;缺點在于易出現欠擬合,導致分類精度可能不高;4.持向量機的優點在于其對異常值敏感度低,易于泛化;缺點是對大規模訓練數據集難以實施,以及難以解決多分類的問題。歸納學習:遺傳算法遺傳算法的基本過程如下:確定實際問題的參數集并進行編碼得到初始化的種群,再通過適應度函數評價種群,若當前解已滿足評價要求,則結束,此解即所求期望解;若當前解不滿足停止規則,則進行遺傳操作,包括選擇、交叉和變異,從而迭代產生新一種群,隨后重復評估適應度及后續過程,直至得到期望解。遺傳算法(GeneticAlgorithm,GA)主要用于解決搜索問題。自上世紀90年代后,它的應用已從函數優化、車間調度等范圍擴展至基于遺傳算法的機器學習領域,并且遺傳算法也正日益和人工神經網絡、模糊推理及混沌理論等其他智能計算方法互相滲透融合。歸納學習:遺傳算法以典型的“袋鼠跳”來描述遺傳算法的求解過程。假定需要求解函數曲線的最大值,而函數曲線圖有多個極大、極小值。現將曲線圖理解為一座山脈,有多處山峰與山谷,令隨機得到的一組解作為第一群袋鼠散落于山脈不同位置中,并讓袋鼠不斷往高處跳(逼近),直至有袋鼠跳至最高山峰處。袋鼠跳的方法有多種:1.

“爬山法”:由于是依賴隨機產生的單點往周邊進行跳躍尋找高峰,故易導致到達局部最優解即停止,而可能無法到達全局最優解;1.遺傳算法:不以單點跳躍,而是多點并行,即隨機產生一群袋鼠散落于山脈中,每隔一個周期,對低海拔的袋鼠進行全體射殺,剩下高海拔的袋鼠存活,并且存活的袋鼠可進行繁殖,在此地產生更多的袋鼠,同時袋鼠可以往周邊跳躍尋找附近的高峰;如此循環,最后僅最高峰的袋鼠得以存活,即找到全局最優解。若求最小值同理。2.

“模擬退火法”:通過令袋鼠有較大的跳躍量以解決遇到局部最優解即停止的問題,而可以有足夠能量跳過局部點并在接近全局最優解時降低跳躍量直至到達全局最優解,但仍是單點跳躍,跳躍時間長;注:遺傳算法具有其獨特的優勢,即算法與問題涉及領域無關,適用廣泛,同時不采用確定性規則而以概率的變遷規則指導搜索方向;但其不足在于搜索速度較慢,欲得到精確解需較長訓練時間等。歸納學習:聯結學習聯結學習主要指人工神經網絡(ArtificialNeuralNetwork,ANN)算法,是一種模擬人腦神經元網絡的信息處理模型,自上世紀50年代起,至今已發展60余年。經歷了淺層神經網絡到深層神經網絡(深度學習算法)的發展歷程。深層神經網絡淺層神經網絡單層線性感知機模型多層非線性感知機模型歸納學習:聯結學習淺層神經網絡起初,FrankRosenblatt教授在由美國心理學家McCulloch和數學家Pitts提出的“人工神經元模型”,或稱為“M-P神經元模型”的基礎上,于1958年正式定義“感知機(MultilayerPerceptron,MLP)模型”。圖中的單層單神經元感知機模型中,x1~xn為n個從研究對象提取的特征值,w為權重值,b為激活閾值,所有特征值xi通過線性加權和作為輸入,f為激活函數。當模型完成輸入后,經激活函數作用,若其值大于設定閾值,則輸出階躍值1激活,反之則輸出階躍值0抑制,從形式上仿照人體神經元突觸處的興奮和抑制機制。歸納學習:聯結學習淺層神經網絡感知機模型還在于將各輸入值的權重定義為可變,通過設置基于誤分類的損失函數,利用梯度下降法對損失函數不斷迭代求得極小值,即可將權重調整至最接近真實的情況,這也使“感知機模型”被賦予學習的特性。但是單個神經元的輸出只有0和1兩種情況,而實際對象的輸出往往有多種,需要通過多個神經元共同完成分類。右圖是單層多神經元感知機模型,由m個神經元構成,最多可區分出2^m種輸入模式。但無論神經元個數有多少,它仍是單層的感知機模型。歸納學習:聯結學習淺層神經網絡在上世紀60年代末70年代初,盡管“感知機模型”調整權值的算法十分簡潔,但隨著它的深入使用,研究者們遇到三層阻礙:1.單層的感知機模型只能解決可線性分割的問題,對于非線性分割問題如異或門則束手無策;2.當時作為樣本輸入的數據量缺失;3.由于單層感知機模型的局限性,當問題復雜度提高,多神經元感知機模型的神經元數量增加,分類結果也將呈指數級增長,伴隨的是計算難度的指數級增長,而當時計算機的計算量是遠遠達不到要求的。因此,人工神經網絡自身的“單層感知機模型”存在不足與時代發展階段的外部因素共同限制進一步其發展。歸納學習:聯結學習深層神經網絡直至80年代,“深層神經網絡(DeepNeuralNetwork,DNN)”的出現有效克服了“單層感知機模型”無法解決異或運算的問題。“多層”和“非線性”是“深層神經網絡”的兩大特性:【多層】區別于單層感知機模型,其在輸入和輸出層間加入“隱層”,從而擴展為多層感知機模型。【多層】體現在激活函數采用非線性函數。歸納學習:聯結學習深層神經網絡20世紀80-90年代21世紀至今80年代末90年代初,卷積神經網絡與循環神經網絡等當下熱門的人工神經網絡算法,與深層神經網絡同樣得到較好的發展,并在當下均被稱為“深度學習”算法。但同時,神經網絡的發展再次遇阻,此時的人工神經網絡理論模型已取得可觀的進展,卻仍然受制于當時的計算機計算能力不足,以及可供使用的數據量無法達到訓練深層神經網絡所需的要求。直到近年來,云計算等技術極大地提高計算系統的計算量,同時大數據的出現亦使得深層神經網絡所需的海量數據不再成為制約,因此人工神經網絡在自身理論成熟與外部技術環境支持的共同驅動下,得到了空前的發展與應用,也直接推動了新一代人工智能的到來。演繹學習:分析學習【歸納學習】從經驗性歸納學習、遺傳算法、聯結學習等算法的實現原理可以看出,歸納學習是指在大量樣例的前提下總結一般規律,創立新的概念、理論,再用于預測分析、解決智能問題。【演繹學習】指在已知事實規律的前提下就少量樣例進行推理分析,并不產生新的概念、知識,是一種基于解釋的學習策略,以分析學習為典型實現算法。相對于歸納學習,分析學習在可用訓練數據不足的情況下較有優勢。以珍稀物種中華鱘的識別為例,若歸納學習需要通過大量中華鱘圖片作為訓練數據集得到識別中華鱘的算法模型,分析學習則是基于先驗知識,即將中華鱘相較其他動物所特有的特征屬性與訓練數據共同作為輸入,分析少量的訓練數據,明確這些樣例如何滿足中華鱘的目標特征,則可基于邏輯推理而非統計推理對樣例進行泛化。新一代人工智能及其與傳統人工智能區別人工智能自誕生以來每一次發展都會受阻,但沉默期之后也都會重新迎來曙光,現今正處于第三次發展階段。之所以稱為“新一代人工智能”,主要在于社會需求的變化、技術環境的變革以及人工神經網絡理論的成熟這三大關鍵因素,這也是其與傳統人工智能的區別所在。有別于上世紀以學術牽引為主的AI研究,21世紀的人工智能則轉變為需求牽引。隨著人們對智慧城市、智能醫療、智能交通、智能物流、智能機器人等各領域提出智能化的訴求,人工智能已走出小規模的實驗室研究范圍,進而走進各個大小城市、企業等,形成大規模的AI研究熱。1.社會需求變化過去每一次人工智能低谷期,除去算法本身的局限性,往往還受限于時下的技術條件,譬如計算機的計算能力有限,訓練數據樣本量有限等。如今計算機的超強計算能力,使得神經網絡中可能出現的指數級計算量不再是技術壁壘;互聯網技術的普及與成熟使海量數據的獲取也變得便捷且低廉。技術環境的重大變革為人工智能的跨越式發展迎來重要契機。2.技術環境變革新一代人工智能及其與傳統人工智能區別2006年,Hinton等人提出的深度學習的概念,事實上可認為是深層神經網絡等的變相說法,解決的關鍵問題是可以自主地將提取的簡單特征組合成更復雜的特征,進而利用它們進行預測、解決問題。與單層感知機模型不同,傳統淺層神經網絡均是對人工提取的特征進行權重學習與優化,而深度學習算法則是從原始輸入中自主提取基礎特征,進而繼續多層復雜特征的提取,再對特征進行學習與優化,克服了人工特征提取的局限性。同時——(1)通過指數衰減法設置梯度下降算法中的學習率可讓模型快速接近較優解并保持穩定,加快訓練速度;(2)通過正則化可有效避免訓練過程中的過擬合現象;(3)通過控制參數的初始值或設置損失函數為凸函數可保證模型優化能達到全局最優解。因此深度學習算法在自主學習及自主優化上的優勢尤為凸顯。3.人工神經網絡理論成熟人工智能機器學習神經網絡深度學習人工智能-機器學習-人工神經網絡-深度學習關系圖新一代人工智能研究內容從研究內容方面看,“新一代人工智能”包括跨媒體智能、人機交互智能、群體智能與大數據智能等。1.跨媒體智能2.人機交互智能現代社會的信息傳播方式已不再是單一的文字、圖像、音頻或視頻等,而是多種形式相互融合,共同呈現,是跨媒體特性的集中表現。跨媒體數據在綜合反映個體或群體行為信息的同時,也反映出此類信息數據關聯復雜、多源異構等特征。相較于傳統的文本類數據,多種數據統一表征尚具有較大難度。因此,跨媒體智能的核心任務即是針對復雜的多媒體數據,探索出可聯合提取多種數據特征的綜合方法,并進行識別與應用。人機交互認為人與機器的本質是共存關系,即beingtogether,人機交互智能便是人的智慧同機器的智能結合在一起。新一代人工智能研究內容人機交互智能續=>莫拉維克悖論認為:對計算機而言,實現邏輯推理等人類高級智慧只需要相對很少的計算能力,而實現感知、運動等低級智慧卻需要巨大的計算資源。換言之,“困難的問題是簡單的,簡單的問題是困難的”。因而,計算機除去代替重復性腦力勞動外,通過基于海量數據集的算法訓練達到與人類一般層面的溝通交流,便可為人類提供巨大的方便。但是某些高級智能如人類的“頓悟”、“創造力”等,則可完全發揮人獨有的優勢,兩者共同解決生產生活中的各種問題。3.群體智能群體智能一般是指某些情況下,群體性的智能能超過群體中最優秀個體所表現的智能。人工群體智能是在互聯網平臺下自然地集合眾多智慧的方法體現。以百科詞條編輯為例,人人可編輯且并不強迫人人參與,但又能借互聯網之手,匯集大眾的智慧,使得各種詞條釋義不因個的局限而有失偏頗。對于用戶而言,搜索關鍵詞得到的百科詞條解釋,便是海量修改數據截至當前的呈現結果,實現知識共享。人工群體智能并不止于人與機器,還有機器與機器等共同完成智能任務。新一代人工智能研究內容互聯網與物聯技術真正使海量數據的采集存儲變為現實,再結合新一代人工智能中的深度學習等技術方可真正實現各領域的“大數據智能”。4.大數據智能以“智能交通出行”為例,居民出行的方式有多種,但基本都會選擇最快捷的出行方式,其中公共汽車也是眾多選項之一。公交系統將每一輛運營中車輛的位置信息實時采集并顯示于公交站臺,可幫助居民及時進行合適交通工具的選擇;同時,通過將后續時段的路段交通狀況分析的具有高置信度的預測結果以APP等方式告知用戶,更有利于用戶的出行保障。以“智能船舶研究”為例,船舶是資產,它各方面的設計應盡可能滿足用戶需求。制造商可在母型船的基礎上,與用戶共同完成船只的定制化設計制造;并且在船只交付使用后,制造商通過持續采集船只航行過程中的船速、吃水等各種實時狀態參數,并基于分析模型進行綜合評估,可輔助船員完成對推進系統、導航系統等的操作管理,以及定期給出船體維保建議等。顯然,大數據智能將在更多領域發揮重要作用。02新一代人工智能的基礎算法深層神經網絡DNN深層神經網絡(DeepNeuralNetwork,DNN)算法可有效解決具有非線性或異或特征的分類、回歸問題,它在原單層感知機模型基礎上進行了多層變換和非線性變換,通過損失函數評價深層神經網絡的分類、回歸效果。1.多層變換【必要性】多層的思想源自心理學出身的GeoffreyHinton(被譽為“人工智能教父”)針對單層感知機提出的“分布式知識表達”的概念,源自大腦對于任何事物的記憶并非存儲于單一的神經元,而是分布式地存在于巨大的神經元網絡中。以鋼片為例,假定有m種長度值和n種寬度值——若按單層感知機模型表達,則需要m×n個神經元參與才能將所有類型表達完全;若以分布式表達思想,通過2層神經元分別為m和n個神經元節點,則只需m+n個神經元,即可表達m×n種鋼片類型;體現了線性增加的神經元數目可實現指數級增加的概念數目的巨大優勢。深層神經網絡DNN【實現過程】對于線性可分的二分類問題,只需要一個輸入輸出即可實現;對于線性不可分數據,則需進行多次二分類,使之變為線性可分;而通過隱層設置多個節點即構造多個二分類器,這便是隱層的物理意義所在。隱層數和每個隱層節點數的設置需要根據神經網絡模型的訓練效果進行調整,但在初次搭建模型時可按如下方法進行設置:(1)隱層數設置一般優先考慮設置1個隱層。因為增加隱層數盡管可降低模型誤差,但也意味著模型復雜化,導致訓練時間變長且更易出現過擬合現象,而單隱藏層對絕大多數問題也已夠用。另外,為降低模型誤差,通過增加隱層節點數比增加隱層更易實現,但對于高維輸入數據樣例,或許增加隱層數的效果更佳。深層神經網絡DNN(2)隱層節點數設置

單層感知機模型只是將所有輸入的加權和通過線性的激活函數得到模型結果,深度神經網絡則是在加權和的基礎上通過非線性的激活函數和偏置項(常數項)進行非線性變換,非線性激活函數作用于隱層和輸出層的每一個節點。事實證明,非線性變換的使用使得復雜分類和回歸的效果更加顯著。2.非線性變換深層神經網絡DNN

tanh函數圖像3.損失函數以多分類問題為例,深層神經網絡模型有n個輸出節點即代表共有n個類別,當輸入一個待測樣例后,由于其最終只可能屬于其中一個類別,故對于最終輸出的n個概率值理論上只有一個接近1,而其他值接近0,這n個值即該樣例輸出的一個n維向量。此時則需通過損失函數對該n維向量進行評價,而基于Softmax回歸方法的交叉熵便是一種常用的損失函數。

深層神經網絡DNN

以一個三分類問題為例,建立其深層神經網絡模型。深層神經網絡DNN以一個三分類問題為例,建立其深層神經網絡模型。三分類問題的深層神經網絡原理圖深層神經網絡DNN以一個三分類問題為例,建立其深層神經網絡模型。但若當前模型經損失函數評價后效果不佳,則還需進行修改,就需要通過“反向傳播算法”對模型進行優化,“反向傳播算法”是梯度下降算法與隨機梯度下降算法的綜合結果,它們的基礎都是梯度下降算法。【梯度下降算法】若損失函數較大,即模型分類效果不理想,則通過該算法調整單個節點的權重值W,如此循環迭代直至損失函數值達到極小值,也因此若節點數過多,則利用該算法進行所有權重值的調整需要大量的訓練時間,效率低下。【隨機梯度下降算法】若采取隨機梯度下降算法,即每一次的優化過程,只選擇一項數據進行調整,而這盡管大大降低訓練時間,卻也顯然無法保證模型整體的損失函數減小。反向傳播算法綜合兩者優點,每次優化過程均只選部分數據進行權重調整,實現高質高效地優化網絡模型。卷積神經網絡CNN深層神經網絡可解決復雜的非線性問題,但存在兩大不足。1.在輸入特征數增大到一定程度時會因計算量增加而使訓練時間加長;2.無法確保在模型架構不變下對多維數據特征的識別保持不變性。卷積神經網絡(ConvolutionalNeuralNetwork,CNN)在上述兩方面體現出優越性;卷積神經網絡模型一般由輸入層、多個卷積層與池化層,以及全連接層和輸出層組成。卷積神經網絡CNN首先將輸入的原始圖片分解成部分重合的小圖塊;然后把每個小圖塊通過卷積和池化用于提取圖片中人物的特征而忽略其他環境等無關要素;最后通過全連接層,即已建立的兒童分類器模型識別圖中是否為一個兒童從而進行輸出判斷。以一張圖片中兒童的識別(二維數據)為例。卷積神經網絡CNN【一維數據與多維數據】一維數據:語音數據是時間維或頻率維的一維數據;二維數據:圖像數據因像素需要至少有“寬度×高度”兩個維度,其中黑白圖像在色彩通道只有一個灰度,因此為二維數據;三維數據:RGB圖像有三個色彩通道,因此為三維數據;多維數據:視頻數據在彩色圖像基礎上還有時間維度,因此為四維數據。1.輸入層對于輸入為多維數據的情況,深層神經網絡仍將其展成一個一維向量,易出現相同特征在不同位置卻無法始終都能識別的情況,卷積神經網絡通過卷積層與池化層能有效解決這個問題。以一張圖片中兒童的識別(二維數據)為例。卷積神經網絡CNN卷積過程是將原始輸入數據通過一塊限定大小的局部區域對整個數據的基礎特征依次進行掃描并得到高抽象程度的中間數據的過程,其中該局部區域稱為卷積核,卷積核區域的輸入節點經加權求和連接至下一層的一個節點。現假定有一組4×4的二維數據,并限定卷積核尺寸為2×2,則可得到一組3×3的二維數據。2.卷積層二維數據卷積過程原理圖以一張圖片中兒童的識別(二維數據)為例。卷積神經網絡CNN

若對于三維數據的卷積,如4×4×3的數據,實質是三層4×4的二維數據,“3”代表該組數據的深度,其卷積表示卷積核圈定范圍下的三層數據均通過加權求和連接到下一層的一個節點上,且該三層數據中每一層的權重配比各不相同。此外,卷積處理后的節點矩陣相較于原始數據,矩陣深度通常會增加;因此,卷積過程是一個令特征量更突出的過程,同時能夠減小數據的計算量。以一張圖片中兒童的識別(二維數據)為例。卷積神經網絡CNN池化是進一步減小數據量的過程,并且保障有效識別信息不丟失,主要功能是剔去除主要提取特征以外的冗余信息,基本原理如下:假定本例中的兒童圖像是對一張黑白圖像的卷積過程,則池化即通過設置一個灰度下限值ξ_0(ξ_0∈[0,255]),將輸出結果中值小于ξ_0的節點剔除,剩余數據則作為全連接層的輸入數據,實現進一步減小數據量。3.池化層池化后的數據處理會像深層神經網絡一樣繼續進行分類或回歸問題的求解。以一張圖片中兒童的識別(二維數據)為例。由此可見,卷積神經網絡的卷積與池化過程類似于人類觀察外部環境時,優先關注顯眼的部分,體現主次之分,在保障效果的同時提高觀察效率。所以卷積神經網絡在語音、圖像識別等領域中可發揮核心作用。循環神經網絡RNN循環神經網絡(RecurrentNeuralNetwork,RNN)算法主要擅長處理和預測時間序列相關的問題,而深層神經網絡與卷積神經網絡對于此類問題的處理效果并不好。在模型結構上,深層神經網絡與卷積神經網絡只是層與層之間進行正向的全連接或部分連接,而循環神經網絡還進行節點間的反向連接。循環神經網絡原理圖循環神經網絡RNN如需要翻譯一句英文,同時輸入該句的多個單詞后啟動翻譯,模型的隱層首先對第一個單詞翻譯為漢字,該漢字一方面作為最終結果輸出,另一方面在下一時刻與下一個單詞共同作為輸入,通過上下文情境實現更好地預測和翻譯后續的內容,即通過歷史消息輔助當前的決策。以中英文翻譯為例。但是直接利用RNN進行基本的翻譯工作時,容易產生另一個問題——假定該句翻譯的正確答案為“某同學一度因為肥胖問題,盡管擅長舉重,卻在1000米跑步測試中成績不佳,但堅持長期鍛煉,如今舉重依然優秀,跑步亦能取得良好。”從中不難發現,依據前半部分擅長舉重自然可以預測后半部分的舉重優秀;但若依舊參照因肥胖問題而跑步不佳來預測“跑步亦能取得”之后的詞語,可能仍是“較差”等性質的評價,而事實上已轉變為良好。這便需要一種機制來

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論