Python經濟大數據分析 試卷及答案 卷2_第1頁
Python經濟大數據分析 試卷及答案 卷2_第2頁
Python經濟大數據分析 試卷及答案 卷2_第3頁
Python經濟大數據分析 試卷及答案 卷2_第4頁
Python經濟大數據分析 試卷及答案 卷2_第5頁
全文預覽已結束

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

學年第1學期;課號課程名稱Python經濟大數據分析(B閉卷);適用班級(或年級、專業)(每位考生需要答題紙(8k)1張、草稿紙(16k)1張)考試時間120分鐘班級學號姓名題號一二三四五六七八九十成績滿分30202030得分評卷人一、單項選擇題(每道題2分,共30分)1.在進行數據抽樣時候的標準不包括:()A.可靠性B.有效性C.一致性D.相關性2.以下代碼的運行結果是?()defInputInt(a):a=15b=2InputInt(b)print(b)15B.2C.15.2D.b3.對于數據挖掘中的原始數據,不需要考慮的問題包括()。A.錯誤值B.重復C.不完整D.數據產生的人4.對于不服從正態分布的變量、分類或等級變量之間的關聯性常采用:()A.Spearman相關系數B.判定系數C.Pearson相關系數D.Gamma系數5.在進行數據探索時能夠一次查看數據的基本情況的方法是()A.subplot()B.describe()C.cumsum()D.add_subplot()6.由于研究目的和對比基礎不同,在進行相對數比較時采用的方法不包括()A.結構相對數B.比例相對數C.過程相對數D.強度相對數7.以下不屬于數據處理中經常使用的缺失值填充的方法()。A.忽略元組B.屬性均值填充缺失值C.最近鄰填充缺失值D.回歸填充缺失值8.哪些算法不需要數據歸一化?A.kNNB.SVMC.k-meansD.決策樹9.以下哪些方法不能用于處理欠擬合?A.增加模型復雜度B.增大正則化系數C.增加新的特征D.對特征進行變換,使用組合特征或高維特征10.以下那種說法是錯誤的()。A.一個系統越是有序,信息熵就越低B.中國足球隊戰勝巴西足球隊的信息熵要小于中國乒乓球隊戰勝巴西乒乓球隊的信息熵C.信息增益=信息熵-條件熵D.一個系統越是混亂,隨機變量的不確定性就越大,信息熵就越高11.關于CART算法,錯誤的是()。A.CART算法既可以處理分類問題,也可以處理回歸問題B.可以處理樣本不平衡問題C.CART算法采用信息增益率的大小來度量特征的各個劃分點D.CART分類樹采用基尼系數的大小來度量特征的各個劃分點12.某超市研究銷售紀錄數據后發現,買啤酒的人很大概率也會購買尿布,這種屬于數據挖掘中的()。A.關聯規則B.聚類C.分類D.自然語言處理13.有關數據挖掘預處理不正確的說法是()。A.預處理是數據挖掘一個不可少的環節B.數值規約可以使用聚類進行C.預處理涉及缺失值分析、異常值分析等很多工作D.預處理的過程可能本身就是一個數據挖掘過程14.假設屬性income的最大最小值分別是12000元和98000元。利用最大最小規范化的方法將屬性的值映射到0至1的范圍內。對屬性income的73600元將被轉化為:()A.0.821B.1.224C.1.458D.0.71615.當不知道數據所帶標簽時,可以使用哪種技術促使帶同類標簽的數據與帶其他標簽的數據相分離?A.分類B.聚類C.關聯分析D.協同過濾二、填空題(每空2分,共20分)1.數據抽樣的標準包括:可靠性、有效性、___________。2.Python中包含4種內建的數據結構為:________、字典、元組、_________。3.常用的異常值探測方法是簡單統計量分析、箱型圖分析和____________。4.數據的不一致性主要是數據的_____________和______________。5.處理缺失值常用的三種方法是:刪除記錄、___________和____________。6.實現分類與預測的常用算法有回歸分析、__________、人工神經網絡、___________和支持向量機。三、名詞解釋題(每道題5分,共20分)1.分類2.決策樹3.預測4.純隨機序列四、簡答題(每道題6分,共30分)1.簡述什么是異常值分析,以及進行異常值探測的方法。2.簡述為什么要做數據預處理,數據預處理的主要內容。3.常見的分類算法有哪些?4.簡述分類的概念,以及分類算法的實現過程。5.LR(邏輯回歸)和SVM的聯系與區別?試卷二答案單選1-5:CBDBA6-10:CADBB11-15:CACDD填空1.相關性2.列表list、集合set3.3σ原則4.矛盾性、不相容性5.數據插補、不處理。6.決策樹、貝葉斯網絡名詞解釋題1.分類是構建一個分類模型,輸入樣本的屬性值,輸出對應的類別,將每個樣本映射到預先定義好的類別。2.決策樹(DecisionTree)通過對訓練樣本的學習,并建立分類規則,然后依據分類規則,對新樣本數據進行分類預測,屬于有監督學習。3.預測是建立兩種或兩種以上變量間相互以來的函數模型,然后進行預測和控制。4.純隨機序列又稱白噪聲序列,序列的各項之間沒有任何相關性,序列在進行完全無序的隨機波動。問答題1.異常值分析是檢驗數據是否有錄入錯誤,是否含有不合常理的數據。常用的方法有簡單統計量分析、3σ原則和箱型圖。2.在數據挖掘中,海量的原始數據中存在著大量不完整、不一致、有異常的數據,將嚴重影響到數據挖掘建模的執行效率,甚至可能導致挖掘結果的偏差,所以需要進行數據的預處理。3.答:SVM、神經網絡、隨機森林、邏輯回歸、KNN、貝葉斯4.分類是構建一個分類模型,輸入樣本的屬性值,輸出對應的類別,將每個樣本映射到預先定義好的類別。分類算法的過程有兩步:第一步是學習步,通過歸納分析訓練樣本集來建立分類模型,得到分類規則;第二步是分類步,先用已知的測試樣本集評估分類規則的準確率,如果準確率是可以接受的,則使用模型對未知類標號的待測樣本集進行預測。5.聯系:LR和SVM都可以處理分類問題,且一般都用于處理線性二分類問題(在改進的情況下可以處理多分類問題)兩個方法都可以增加不同的正則化項,如L1、L2等等。所以在很多實驗中,兩種算法的結果是很接近的。區別:LR是參數模型,SVM是非參數模型。從目標函數來看,區別在于邏輯回歸采用的是LogisticalLoss,SVM采用的是hingeloss.這兩個損失函數的目的都是增加對分類影響較大的數據點的權重,減少與分類關系較小的數據點的權重。SVM的處理方法是只考慮SupportVectors,也就是和分類最相關的少數點,去學習分類器。而邏輯回歸通過非線性映射,大大減小了離分類平面較遠的點的權重,相對提升了與分類最相關的數據點

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論