人工智能數學基礎高職PPT完整全套教學課件_第1頁
人工智能數學基礎高職PPT完整全套教學課件_第2頁
人工智能數學基礎高職PPT完整全套教學課件_第3頁
人工智能數學基礎高職PPT完整全套教學課件_第4頁
人工智能數學基礎高職PPT完整全套教學課件_第5頁
已閱讀5頁,還剩396頁未讀 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

《人工智能數學基礎》《人工智能數學基礎》第1章人工智能數學建模.pptx《人工智能數學基礎》第2章微積分初步.pptx《人工智能數學基礎》第3章線性代數.pptx《人工智能數學基礎》第4章概率及數理統計.pptx《人工智能數學基礎》第5章最優化方法.pptx《人工智能數學基礎》第6章隨機過程.pptx《人工智能數學基礎》第7章插值與回歸.pptx全套PPT課件第1章人工智能數學建模1.1

數學與人工智能1.2

人工智能數學基礎1.3

模型求解工具本章教學內容:1.1

數學與人工智能

人工智能是一個將數學、算法理論和工程實踐緊密結合的科學。人工智能從本質上來看是算法設計,是數學各種理論的具體應用。數學作為表達與刻畫人工智能模型的工具,是深人工智能算法原理必備的基礎知識。人工智能算法用到各種不同的數學知識,諸如微積分、線性代數、數理統計、離散數學、最優化、……等等。1.1.1人工智能常見算法一元回歸直線2.邏輯回歸。邏輯回歸是一種廣義的線性回歸分析模型,與線性回歸類似,但邏輯回歸的結果只能有兩個值或多個離散值。

例如,某學生是否是“三好生”分析為例,選擇兩組人群,一組是“三好生”組,一組是“非三好生”組,兩組人群必定具有不同的成績等。其結果為是否“三好生”,值為“是”或“否”,自變量有多個因素,如德、智、體、美、勞等,給它們分別賦予一定的權重,通過綜合評價而得一個分數,再設定一個閾值,確定其結果。邏輯回歸模型

3.決策樹。決策樹算法是一種典型的分類方法。首先對數據進行處理,生成可讀的規則和決策樹,然后使用決策對新數據進行分析。決策樹本質上是通過一系列規則對數據進行分類的過程。3.決策樹。決策樹算法是一種逼近離散函數值的方法。它是一種典型的分類方法,首先對數據進行處理,利用歸納算法生成可讀的規則和決策樹,然后使用決策對新數據進行分析。決策樹本質上是通過一系列規則對數據進行分類的過程。決策樹4.樸素貝葉斯。樸素貝葉斯是基于貝葉斯定理,利用先前的概率結果來推斷事件發生的起因,從而來測量每個類的概率。其計算公式如下:5.支持向量機。支持向量機是一種用于分類問題的監督算法。支持向量機試圖在數據點之間繪制兩條線,以使得它們之間的邊距最大。支持向量機找到一個最優邊界,稱為超平面,它通過類標簽將可能的輸出進行最佳分離。支持向量機算法模型6.K-最近鄰算法。K-最近鄰算法通過在整個訓練集中搜索K個最相似的實例,即K個鄰居,并為所有這些K個實例分配一個公共輸出變量,來對對象進行分類。

K-最近鄰算法可用于文本分類、模式識別、聚類分析等。K-最近鄰算法1.1.2數學模型的基本流程1.2人工智能數學基礎1.微積分

微積分是研究函數的極限、導數、微分、積分有關概念和應用的數學分支。它是數學的一個最基礎學科,內容主要包括極限,微分學,積分學及其應用。人工智能應用中涉及到速度、加速度和曲線的斜率、最化化問題等都可用導數方法來進行討論。積分學,包含求積分的運算,關于面積、體積、壓力等方面的問題都可歸結為積分問題。

2.線性代數

線性代數主要研究行列式、矩陣、向量、線性方程組、特征值、二次型方面的學科。在人工智能研究中應用非常廣泛。

例如,圖像表示為在計算中順序排列的像素陣列,是以矩陣的形式來進行存貯。對圖像的處理如旋轉、裁剪、模式轉換等等相當于對矩陣進行轉置、求逆、矩陣的線性變換等。3.概率統計

概率統計作為一個數學的重要領域之一,其通過現有條件對隨機事件進行一定程度上的分析和概率的預測,能夠保證其輸出往往是在當前條件下準確率和發生概率最大的事件。

概率論與數理統計在人工智能應用中的作用已滲透到各個方面,從偏差、方差分析以更好的擬合到計算概率以實現預測,從隨機初始化以加快訓練速度到正則化、歸一化數據處理以避免過擬合等等都離不開概率統計。4.最優化理論

最優化理論研究的問題是判定給定目標函數的最大值(最小值)是否存在,并找到令目標函數取到最大值(最小值)的數值。人工智能的目標就是最優化,在復雜環境與多重交互中做出最優決策。幾乎所有的人工智能問題最后都會歸結為一個優化問題的求解,因而最優化理論是人工智能必備的基礎知識。5.隨機過程

隨機過程,是依賴于參數的一組隨機變量的全體,參數通常是時間。隨機變量是隨機現象的數量表現,其取值隨著偶然因素的影響而改變。例如,某商店在從時間t0到時間tk這段時間內接待顧客的人數,就是依賴于時間t的一組隨機變量,即隨機過程。隨機過程是應物理學、生物學、管理科學等方面的需要而逐步發展起來的。在自動控制、公用事業、管理科學等方面都有廣泛的應用。隨機過程示例圖6.回歸與預測

回歸分析通過一個變量或一些變量的變化解釋另-變量的變化。變量分為自變量和因變量,-般情況下,自變量表示原因,因變量表示結果。其次,設法找出合適的數學方程式(即回歸模型)描述變量間的關系,接著要估計模型的參數,得出樣本回歸方程,由于涉及到的變量具有不確定性,接著還要對回歸模型進行統計檢驗,預測檢驗等,當所有檢驗通過后,就可以應用回歸模型了。

回歸按照自變量的個數劃分為一元回歸和多元回歸。只有一個自變量的回歸叫一元回歸,有兩個或兩個以上自變量的回歸叫多元回歸。按照回歸曲線的形態劃分,有線性(直線)回歸和非線性(曲線)回歸。1.3模型求解工具1.PythonIDLE2.Anaconda

3.Pycharm1.4常用數值求解包1.NumpyNumpy是Python語言的一個擴展程序庫,支持大量的維度數組與矩陣運算,此外也針對數組運算提供大量的數學函數庫。Numpy常用方法2.Scipyscipy被分成各個不同的模塊:scipy.cluster(矢量量化);scipy.constants(物理和數學常數);scipy.fftpack(傅里葉變換);egrate(積分);erpolate(插值);scipy.io(文件);scipy.linalg(線性代數)。3.Sympy數學運算的時候,其實有兩種運算模式,一種是數值運算,一種是符號運算(代數)。使用計算機進行數值運算,尤其是比如除、開平方等運算時,往往只能得到其近似值(一般通過擴大精度來縮小誤差),最終總會已一定的誤差,如果使用符號運算模式,則可以完全避免此種問題,符號運算可極大的避免在需要大量運算過程中,造成的累積性誤差問題。符號計算體系(代數),還可以做比如多項式合并、展開、求極限、求和、多重求和、求導、求積分等等工作。4.PandasPandas是Python語言的一個擴展程序庫,用于數據分析。5.Matplotlib第2章

微積分初步本章主要內容2.1函數、極限與連續2.2導數與微分2.3導數應用2.4積分2.5級數2.1函數、極限與連續2.1.1函數1.函數概念

2.函數的幾個重要特性(1)有界性(2)單調性(3)奇偶性(4)周期性3.基本初等函數及初等函數2.1.2極限scipy(或sympy)中limit()為求極限函數,oo表示無窮。

形式為:fromscipyimport*

極值值=limit(函數,變量,趨于值)2.1.3連續2.2導數與微分

1導數一般地:導函數又稱函數求導函數調用:fromsympyimport*diff(一元求導函數,階數)iidiff(多元求導函數,因變量,自變量,階數)2.2.3偏導數一元函數相應的概念、性質及運算可推廣到多元函數。

fromsympyimport*x,y=symbols('xy')F=2*x**3*y-3*x*y**3dFdx=F.diff(x)dFdy=F.diff(y)print("[",dFdx,",",dFdy,"]")2.3導數應用2.3.3一元函數極值

scipy模塊optimize包下方法minimize()用于求極小值

為了求f(x)的極大值可先轉化為求-f(x)的極小值,再取反。

由于minimize用的是迭代尋優,因而需要給出初始點。

形式為:

scipy.optimize.minimize(函數,初始搜索點)2.3.4多元函數極值1.無條件極值2.有條件極值2.4積分sympy模塊中integrate()方法用于求不定積分,定積分,多重積分integrate(一元函數):對一元函數求不定積分integrate(一元函數,(變量,積分下限,積分上限)):求定積分2.5.2冪級數2.5.3泰勒級數第3章線性代數本章內容3.1行列式3.2矩陣3.3向量3.4線性方程組3.5矩陣對角化3.6二次型3.1.1行列式1.二階行列式2.三階行列式

余子式:

代數余子式:

行列式的運算通常用Python命令:numpy.linalg.det(a):參數a為表示需要求解的行列式,類型為array。3.1.3克萊姆法則3.2矩陣Python創建矩陣有兩種不同的方法:方法一:np.mat()importnumpyasnpA1=np.mat('1234;3456;5678;7890')print(A1)方法二:np.matrix()importnumpyasnpA2=np.matrix([[1,2,3,4],[3,4,5,6],[5,6,7,8],[7,8,9,0]])print(A2)創建零矩陣的方法為:numpy.zeros(shape,dtype,order=’C’)。創建單位矩陣的方法為:numpy.eye(n)。n表示大小。創建對角陣的方法為:numpy.diag(v,k=0)。3.2.2矩陣的線性運算(1)矩陣加減(2)數乘矩陣(3)矩陣相乘3.2.5逆矩陣3.2.6矩陣的秩及矩陣的初等變換3.3向量利用初等行變換求向量組的最大線性無關組及秩:

求一向量組的秩和最大線性無關組,可以把這些向量作為矩陣的列構成矩陣,用初等行變換將其化為行最簡階梯形矩陣,則非零行的個數就是向量組的秩,每行第一個非零元所在列對應的原來向量組中的向量就是最大無關組。并且,其余向量對應的分量值即為此向量由最大線性無關組線性表示的系數3.4線性方程組3.4.1齊次線性方程組3.6二次型第4章概率及數理統計

本章內容4.1統計初步4.2隨機事件4.3隨機變量4.4隨機變量的數學特征4.5常用統計量及其分布4.6參數估計實驗四數據統計與分析4.1統計初步4.1.1階乘、排列、組合及排序1.階乘

math.factorial(n)2.排列

3.組合python排列組合全放置中itertools包,其中:(1)permutations排列(不放回抽樣排列)(2)combinations組合,沒有重復(不放回抽樣組合)(3)combinations_with_replacement組合,有重復(有放回抽樣組合)【例4-1】排列組合的實現importitertoolsprint("任取1個組合:")fori,valinenumerate(list(binations('ABCD',1))):print("序號:%s值:%s"%(i+1,''.join(val)))print("任取2個組合:")fori,valinenumerate(list(binations('ABCD',2))):print("序號:%s值:%s"%(i+1,''.join(val)))print("任取3個組合:")fori,valinenumerate(list(binations('ABCD',3))):print("序號:%s值:%s"%(i+1,''.join(val)))print("任取4個組合:")fori,valinenumerate(list(binations('ABCD',4))):print("序號:%s值:%s"%(i+1,''.join(val)))print("任取2個排列:")fori,valinenumerate(list(itertools.permutations('ABCD',2))):print("序號:%s值:%s"%(i+1,''.join(val)))4.排列組合數的計算scipy.special模塊中的perm(),comb()函數求出組合數及排列數。【程序代碼】fromscipy.specialimport*print(comb(5,2))#5個中取2個的組合數print(perm(5,2))#5個中取2個的排序數【運行結果】10.020.04.1.2加法原理與乘法原理1.加法原理若進行過程有種方法,進行過程有種方法,假定過程和過程是并行的,則進行過程或過程的方法共有種。例如,若從甲地到乙地有2條公路,3條小路,則從甲地到乙地共有5種不同的走法。2.乘法原理若進行過程有種方法,進行過程有種方法,則進行過程后再接著過程的方法共有種。4.1.4常用統計方法4.2隨機事件4.2.1隨機試驗1.隨機試驗

2.隨機事件3.事件間的關系及其運算(1)事件的包含(子事件)與相等(2)事件的并(或和)(3)事件的交(或積)(4)互不相容(或互斥)事件(5)互逆(或對立)事件(6)事件的差4.2.2隨機事件的概率importnumpyasnpimportmatplotlib.pyplotaspltimportrandombatch=int(input("請輸入試驗次數:"))samples=np.ones(batch,dtype=32)*500print(samples)result=[]result_mean=[]forkinrange(batch):foriinrange(samples[k]):result.append(random.randint(0,1))result_mean.append(np.mean(result))xaxis=list(range(batch))plt.plot(xaxis,result_mean)plt.xlabel('拋硬幣數')plt.ylabel('正面朝上概率')plt.show()4.3.2重要的隨機分布4.4隨機變量的數學特征4.4.1期望4.5常用統計量及其分布4.5.2統計量的評價標準4.6參數估計4.6.2區間估計實驗四數據統計與分析第5章最優化方法

本章內容5.1minimize方法5.2多元函數無條件極值5.3有條件極值5.4多目標優化實驗五利用牛頓迭代法求解方程的根5.1minimize方法5.2多元函數無條件極值5.3.1有條件函數極值5.4多目標優化5.4.1多目標優化的模型5.4.2多目標優化的解法實驗五利用牛頓迭代法求解方程的根第6章隨機過程

本章內容6.1馬爾科夫鏈6.2吸收馬爾科夫鏈6.3隱馬爾科夫鏈實驗六馬爾科夫分析

6.1馬爾科夫鏈6.1.3馬爾科夫鏈第7章

插值與回歸7.1插值7.1.1最近鄰插值7.1.2線性插值7.1.3拋物性插值7.1.4拉格朗日插值7.1.5各類插值法的比較7.1.6二維插值7.2回歸7.2.1線性回歸7.2.2多項式回歸7.2.3非線性回歸實驗七回歸與預測本章主要內容7.1插值

在人工智能應用領域,常用函數來表示某種內在規律的數量關系,這些函數是多種多樣的,其中一部分函數是通過實驗或觀測得到的。但在某個實際問題中,雖然可以斷定所考慮的函數在區間上是存在的,有的還是連續的,但卻難以找到它的解析表達式,只能得到上一系列點的函數值。通過這些觀測點的取值情況直接求出其它一些點上的函數值可能是非常困難的。

此時為了研究函數的變化規律以及求出不在表上的函數值,

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論