




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
第五屆“高新匠領(lǐng)”職業(yè)技能大賽(人工智能算法應(yīng)用賽項(xiàng))
理論試題庫(含答案)
一、單選題
1.在其他條件不變的前提下,以下哪種做法容易引起機(jī)器學(xué)習(xí)中的過擬合問題()。
A、增加訓(xùn)練集量
B、減少神經(jīng)網(wǎng)絡(luò)隱藏層節(jié)點(diǎn)數(shù)
C、刪除稀疏的特征
D、SVM算法中使用高斯核/RBF核代替線性核
答案:D
2.下列屬于無監(jiān)督學(xué)習(xí)的是:()。
A、k-means
B、SVM
C、最大炳
D、CRF
答案:A
3.Logit函數(shù)(給定為I(x))是幾率函數(shù)的對(duì)數(shù)。域x=[0,1]中l(wèi)ogit函數(shù)的范圍
是多少?()
A、(-8,8)
B\(0,1)
C、(0,8)
D\(-8,o)
答案:A
4.在深度學(xué)習(xí)中,涉及到大量的矩陣相乘,現(xiàn)在需要計(jì)算三個(gè)稠密矩陣A,B,C的
乘積ABC,假設(shè)三個(gè)矩陣的尺寸分別為m*n,n*p,p*q,且m<n<p<q,以下計(jì)算順
序效率最高的是()。
A、(AB)C
B、AC(B)
C、A(BC)
D、效率都相同
答案:A
5.下面哪種不屬于數(shù)據(jù)預(yù)處理的方法?()
A、變量代換
B、離散化
C、聚集
D、估計(jì)遺漏值
答案:D
6.下列哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線性?()
A、隨機(jī)梯度下降
B、修正線性單元(ReLU)
C、卷積函數(shù)
D、以上都不正確
答案:B
7.使用以下哪種算法進(jìn)行變量選擇?0
A、LASSO
B、Ridge
C\兩者
D、都不是
答案:A
8.模型的高bias是什么意思,我們?nèi)绾谓档退?)
A、在特征空間中減少特征
B、在特征空間中增加特征
C、增加數(shù)據(jù)點(diǎn)
D、B和C
答案:B
9.哪一個(gè)是機(jī)器學(xué)習(xí)的合理定義?()
A、機(jī)器學(xué)習(xí)從標(biāo)記的數(shù)據(jù)中學(xué)習(xí)
B、機(jī)器學(xué)習(xí)能使計(jì)算機(jī)能夠在沒有明確編程的情況下學(xué)習(xí)
C、機(jī)器學(xué)習(xí)是計(jì)算機(jī)編程的科學(xué)
D、機(jī)器學(xué)習(xí)是允許機(jī)器人智能行動(dòng)的領(lǐng)域
答案:B
10.當(dāng)不知道數(shù)據(jù)所帶標(biāo)簽時(shí),可以使用哪種技術(shù)促使帶同類標(biāo)簽的數(shù)據(jù)與帶其
他標(biāo)簽的數(shù)據(jù)相分離?()
A、分類
B、聚類
C、關(guān)聯(lián)分析
D、隱馬爾可夫鏈
答案:B
11.分析邏輯回歸表現(xiàn)的一個(gè)良好的方法是AIC,它與線性回歸中的R平方相似。
有關(guān)AIC,以下哪項(xiàng)是正確的?()
A、具有最小AIC值的模型更好
B、具有最大AIC值的模型更好
C、視情況而定
D、以上都不是
答案:A
12.請(qǐng)選擇下面可以應(yīng)用隱馬爾科夫(HMM)模型的選項(xiàng)。()
A、基因序列數(shù)據(jù)集
B、電影瀏覽數(shù)據(jù)集
C、股票市場數(shù)據(jù)集
D、所有以上
答案:D
13.下列關(guān)于回歸分析中的殘差表述正確的是()。
A、殘差的平均值總為零
B、殘差的平均值總小于零
C、殘差的平均值總大于零
D、殘差沒有此類規(guī)律
答案:A
14.基于統(tǒng)計(jì)的分詞方法為()。
A\正向量最大匹配法
B、逆向量最大匹配法
C、最少切分
D、條件隨機(jī)場
答案:D
15.在數(shù)據(jù)清理中,下面哪個(gè)不是處理缺失值的方法?0
A、估算
B、整例刪除
G變量刪除
D、成對(duì)刪除
答案:D
16.深度學(xué)習(xí)是當(dāng)前很熱門的機(jī)器學(xué)習(xí)算法,在深度學(xué)習(xí)中,涉及到大量的矩陣相
乘,現(xiàn)在需要計(jì)算三個(gè)稠密矩陣A,B,C的乘積ABC,假設(shè)三個(gè)矩陣的尺寸分別為m
*n,n*p,p*q,且m<n<p<q,以下計(jì)算順序效率最高的是()。
A、(AB)C
B、AC(B)
C、A(BC)
D、所以效率都相同
答案:A
17.下面兩張圖展示了兩個(gè)擬合回歸線(A和B),原始數(shù)據(jù)是隨機(jī)產(chǎn)生的。現(xiàn)在,
我想要計(jì)算A和B各自的殘差之和。注意:兩種圖中的坐標(biāo)尺度一樣。關(guān)于A和
B各自的殘差之和,下列說法正確的是?0
AB
A、比B禺
B、A比B小
C、A與B相同
D、以上說法都不對(duì)
答案:C
18.下列哪一種操作實(shí)現(xiàn)了和神經(jīng)網(wǎng)絡(luò)中Dropout類似的效果?()
A、Bagging
B\oosting
C、堆疊
D、以上都不正確
答案:A
19.下列的代碼片段,說法不正確的是:()。
A、表達(dá)式[1,2,3]*3的執(zhí)行結(jié)果為[1,2,3,1,2,3,1,2,3]。
B、語句x=3==3,5執(zhí)行結(jié)束后,變量x的值為(True,5)。
G已知x=3,那么執(zhí)行語句x+=6之后,x的值為9o
D、已知x=3,并且id(x)的返回值為496103280,那么執(zhí)行語句x+=6之后,表達(dá)式
id(x)==496103280的值為true。
答案:D
20.基于二次準(zhǔn)則函數(shù)的H-K算法較之于感知器算法的優(yōu)點(diǎn)是()?
A、計(jì)算量小
B、不可以判別問題是否線性可分
C、其解完全適用于非線性可分的情況
D、其解的適應(yīng)性更好
答案:D
21.假設(shè)你有5個(gè)大小為7x7、邊界值為0的卷積核,同時(shí)卷積神經(jīng)網(wǎng)絡(luò)第一層的
深度為1。此時(shí)如果你向這一層傳入一個(gè)維度為224x224x3的數(shù)據(jù),那么神經(jīng)網(wǎng)
絡(luò)下一層所接收到的數(shù)據(jù)維度是多少?0
A、218x218x5
B、217x217x8
C、217x217x3
D、220x220x5
答案:A
22.下列哪些不特別適合用來對(duì)高維數(shù)據(jù)進(jìn)行降維。()
A、LASSO
B、主成分分析法
C、聚類分析
D、小波分析法
答案:C
23.當(dāng)數(shù)據(jù)過大以至于無法在RAM中同時(shí)處理時(shí),哪種梯度下降方法更加有效?()
A、隨機(jī)梯度下降法(StochasticGradientDescent)
B、不知道
G整批梯度下降法(FuIIBatchGradientDescent)
D、都不是
答案:A
24.()是職業(yè)道德認(rèn)識(shí)和職業(yè)道德情感的統(tǒng)一。
A、職業(yè)道德技能
B、職業(yè)道德義務(wù)
C、職業(yè)道德信念
D、職業(yè)道德素養(yǎng)
答案:D
25.以下哪個(gè)圖是KNN算法的訓(xùn)練邊界()。
輸入數(shù)據(jù)ABCD
A、B
B、A
C、D
D、C
答案:B
26.一個(gè)二進(jìn)制源X發(fā)出符號(hào)集為{-1,1},經(jīng)過離散無記憶信道傳輸,由于信道中
噪音的存在,接收端Y收到符號(hào)集為{7,1,0}。已知P(x=-1)=1/4,P(x=1)=3/4,P
(y=-1|x=-1)=4/5,P(y=O|x=-1)=1/5,P(y=1|x=1)=3/4,P(y=O|x=1)=1/4,求條件
炳H(Y|X)()。
A、0.2375
B、0.3275
C、0.5273
D、0.5372
答案:A
27.一個(gè)計(jì)算機(jī)程序從經(jīng)驗(yàn)E中學(xué)習(xí)任務(wù)T,并用P來衡量表現(xiàn)。并且,T的表現(xiàn)P
隨著經(jīng)驗(yàn)E的增加而提高。假設(shè)我們給一個(gè)學(xué)習(xí)算法輸入了很多歷史天氣的數(shù)據(jù),
讓它學(xué)會(huì)預(yù)測天氣。什么是P的合理選擇?0
A、計(jì)算大量歷史氣象數(shù)據(jù)的過程
B、正確預(yù)測未來日期天氣的概率
C、天氣預(yù)報(bào)任務(wù)
D、以上都不
答案:B
28.關(guān)于"回歸(Regression)"和"相關(guān)(CorreIation)”,下列說法正確的是?
注意:x是自變量,y是因變量0。
A、回歸和相關(guān)在x和y之間都是互為對(duì)稱的
B、回歸和相關(guān)在x和y之間都是非對(duì)稱的
C、回歸在x和y之間是非對(duì)稱的,相關(guān)在x和y之間是互為對(duì)稱的
D、回歸在x和y之間是對(duì)稱的,相關(guān)在x和y之間是非對(duì)稱的
答案:C
29.被譽(yù)為國際“人工智能之父”的是0。
A、圖靈(Turing)
B\費(fèi)根鮑姆(Feigenbaum)
G傅京孫(K、S、Fu)
D、尼爾遜(NiIsson)
答案:A
30.要想讓機(jī)器具有智能,必須讓機(jī)器具有知識(shí)。因此,在人工智能中有一個(gè)研究
領(lǐng)域,主要研究計(jì)算機(jī)如何自動(dòng)獲取知識(shí)與技能,實(shí)現(xiàn)自我完善,這門研究分支學(xué)
科叫()。
A、專家系統(tǒng)
B、機(jī)器學(xué)習(xí)
C、神經(jīng)網(wǎng)絡(luò)
D、模式識(shí)別
答案:B
31.以下關(guān)于誠實(shí)守信的認(rèn)識(shí)和判斷中,正確的選項(xiàng)是()。
A、誠實(shí)守信應(yīng)以追求利益最大化為準(zhǔn)則
B、是否誠實(shí)守信要視具體對(duì)象而定
C、誠實(shí)守信是市場經(jīng)濟(jì)應(yīng)有的法則
D、誠實(shí)守信與經(jīng)濟(jì)發(fā)展相矛盾
答案:C
32.假設(shè)你訓(xùn)練了一個(gè)基于線性核的SVM,多項(xiàng)式階數(shù)為2,在訓(xùn)練集和測試集上
準(zhǔn)確率都為100%。如果增加模型復(fù)雜度或核函數(shù)的多項(xiàng)式階數(shù),將會(huì)發(fā)生什么?
0
A、導(dǎo)致過擬合
B、導(dǎo)致欠擬合
C、無影響,因?yàn)槟P鸵堰_(dá)100%準(zhǔn)確率
D、以上均不正確
答案:A
33.假設(shè)你使用log-loss函數(shù)作為評(píng)估標(biāo)準(zhǔn)。下面這些選項(xiàng),哪些是對(duì)作為評(píng)估
標(biāo)準(zhǔn)的log-loss的正確解釋()。
A、如果一個(gè)分類器對(duì)不正確的分類很自信,log-loss會(huì)嚴(yán)重的批評(píng)它
B、對(duì)一個(gè)特別的觀察而言,分類器為正確的類別分配非常小的概率,然后對(duì)log-
Ioss的相應(yīng)分布會(huì)非常大
C、Iog-loss越低,模型越好
D、以上都是
答案:D
34.語言模型的參數(shù)估計(jì)經(jīng)常使用MLE(最大似然估計(jì))。面臨的一個(gè)問題是沒有
出現(xiàn)的項(xiàng)概率為0,這樣會(huì)導(dǎo)致語言模型的效果不好。為了解決這個(gè)問題,需要使
用:()。
A、平滑
B、去噪
C、隨機(jī)插值
D、增加白噪音
答案:A
35.下列哪個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會(huì)發(fā)生權(quán)重共享?()
A、卷積神經(jīng)網(wǎng)絡(luò)
B、循環(huán)神經(jīng)網(wǎng)絡(luò)
C、全連接神經(jīng)網(wǎng)絡(luò)
D、選項(xiàng)A和B
答案:D
36.SVM中使用高斯核函數(shù)之前通常會(huì)進(jìn)行特征歸一化,以下關(guān)于特征歸一化描
述不正確的是?()
A、經(jīng)過特征正則化得到的新特征優(yōu)于舊特征
B、特征歸一化無法處理類別變量
C、SVM中使用高斯核函數(shù)時(shí),特征歸一化總是有用的
D、以上都是不正確的
答案:C
37.向量X=[1,2,3,4,-9,0]的L1范數(shù)為?()
A、1
B、19
C、6
D、V111
答案:B
38.你正在使用帶有L1正則化的Iogistic回歸做二分類,其中C是正則化參數(shù),
w1和w2是x1和x2的系數(shù)。當(dāng)你把C值從0增加至非常大的值時(shí),下面哪個(gè)選
項(xiàng)是正確的?()
A、第一?"t'w2成了0,接著w1也成了0
B、第一個(gè)w1成了0.接著w2也成了0
Gw1和w2同時(shí)成了0
D、即使在C成為大值之后,w1和w2都不能成0
答案:B
39.下列選擇中,說法是正確的是:()。
A、在Python中nulI表示空類型。
B、列表、元組、字符串是Python的無序序列。
C、查看變量類型的Python內(nèi)置函數(shù)是type。。
D、查看變量內(nèi)存地址的Python內(nèi)置函數(shù)是ids()。
答案:C
40.下面的python代碼片段,定義了函數(shù)fun()并調(diào)用了該函數(shù),輸出結(jié)果是0。
A、報(bào)錯(cuò)
B、123
C、1
D、23
答案:A
41.假設(shè)你需要調(diào)整參數(shù)來最小化代價(jià)函數(shù)(costfunction),可以使用下列哪項(xiàng)
技術(shù)?()
A、窮舉搜索
B、隨機(jī)搜索
GBayesian優(yōu)化
D、以上任意一種
答案:D
42.下列哪一項(xiàng)說明了X,Y之間的較強(qiáng)關(guān)系。()
A、相關(guān)系數(shù)為0、9
B、eta系數(shù)為0的空假設(shè)的p-value是0、0001
C、Beta系數(shù)為0的空假設(shè)的t統(tǒng)計(jì)量是30
D、都不對(duì)
答案:A
43.類域界面方程法中,不能求線性不可分情況下分類問題近似或精確解的方法
是?()
A、偽逆法-徑向基神經(jīng)網(wǎng)絡(luò)的訓(xùn)練算法,就是解決線性不可分的情況
B、基于二次準(zhǔn)則的H-K算法:最小均方差準(zhǔn)則下求得權(quán)矢量,二次準(zhǔn)則解決非線
性問題
C、勢函數(shù)法-非線性
D、感知器算法-線性分類算法
答案:D
44.微機(jī)系統(tǒng)中的系統(tǒng)總線(如PCI)用來連接各功能部件以構(gòu)成一個(gè)完整的系統(tǒng),
它需包括三種不同功能的總線,即()。
A、數(shù)據(jù)總線'地址總線和控制總線
B、同步總線、異步總線和通信總線
C、內(nèi)部總線、外部總線和片內(nèi)總線
D、并行總線、串行總線和USB總線
答案:A
45.對(duì)于一個(gè)分類任務(wù),如果開始時(shí)神經(jīng)網(wǎng)絡(luò)的權(quán)重不是隨機(jī)賦值的,而是都設(shè)成
0,下面哪個(gè)敘述是正確的?()
A、其他選項(xiàng)都不對(duì)
B、沒啥問題,神經(jīng)網(wǎng)絡(luò)會(huì)正常開始訓(xùn)練
C、神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會(huì)變成識(shí)別同樣的東西
D、神經(jīng)網(wǎng)絡(luò)不會(huì)開始訓(xùn)練,因?yàn)闆]有梯度改變
答案:C
46.如果以特征向量的相關(guān)系數(shù)作為模式相似性測度,則影響聚類算法結(jié)果的主
要因素有()。
A、已知類別樣本質(zhì)量
B、分類準(zhǔn)則
C、量綱
D、其他
答案:B
47.以P(w)表示詞條w的概率,假設(shè)已知P(南京)=0.8,P(市長)=0.6,P(長江大橋)
=0.4:P(南京市)=0.3,P(長江大橋)=0.5:假設(shè)前后兩個(gè)詞的出現(xiàn)是獨(dú)立的,那么
分詞結(jié)果就是0。
A、南京市*長江*大橋
B、南京*市長*江大橋
C、南京市長*江大橋
D、南京市*長江大橋
答案:B
48.關(guān)于Logit回歸和SVM不正確的是0。
AvLogit回歸目標(biāo)函數(shù)是最小化后驗(yàn)概率
BxLogit回歸可以用于預(yù)測事件發(fā)生概率的大小
C、SVM目標(biāo)是結(jié)構(gòu)風(fēng)險(xiǎn)最小化
D、SVM可以有效避免模型過擬合
答案:A
49.Fisher線性判別函數(shù)的求解過程是將M維特征矢量投影在(B)中進(jìn)行求解。
A、M-1維空間
B、一維空間
C、三維空間
D、二維空間
答案:B
50.與法律相比,道德0。
A、產(chǎn)生的時(shí)間晚
B、適用范圍更廣
C、內(nèi)容上顯得十分籠統(tǒng)
D、評(píng)價(jià)標(biāo)準(zhǔn)難以確定
答案:B
51.人工智能的目的是讓機(jī)器能夠0,以實(shí)現(xiàn)某些腦力勞動(dòng)的機(jī)械化。
A、和人一樣工作
B、完全代替人的大腦
C、模擬、延伸和擴(kuò)展人的智能
D、具有智能
答案:D
52.下面哪句話是正確的?()
A、機(jī)器學(xué)習(xí)模型的精準(zhǔn)度越高,則模型的性能越好
B、增加模型的復(fù)雜度,總能減小測試樣本誤差
C、增加模型的復(fù)雜度,總能減小訓(xùn)練樣本誤差
D、以上說法都不對(duì)
答案:D
53.在當(dāng)前的人工智能領(lǐng)域,機(jī)器學(xué)習(xí),或者更準(zhǔn)確地說,()的技術(shù)路線已經(jīng)成為
研究的主流。
A、“大數(shù)據(jù)+深度學(xué)習(xí)”
B、“數(shù)據(jù)+學(xué)習(xí)”
C、“大數(shù)據(jù)+去計(jì)算”
D、“云計(jì)算+去中心化”
答案:A
54.在LogisticRegression中,如果同時(shí)加入L1和L2范數(shù),會(huì)產(chǎn)生什么效果()。
A、可以做特征選擇,并在一定程度上防止過擬合
B、能解決維度災(zāi)難問題
C、能加快計(jì)算速度
D、可以獲得更準(zhǔn)確的結(jié)果
答案:A
55.已知:大腦是有很多個(gè)叫做神經(jīng)元的東西構(gòu)成,神經(jīng)網(wǎng)絡(luò)是對(duì)大腦的簡單的數(shù)
學(xué)表達(dá)。每一個(gè)神經(jīng)元都有輸入、處理函數(shù)和輸出。神經(jīng)元組合起來形成了網(wǎng)絡(luò),
可以擬合任何函數(shù)。為了得到最佳的神經(jīng)網(wǎng)絡(luò),我們用梯度下降方法不斷更新模
型,給定上述關(guān)于神經(jīng)網(wǎng)絡(luò)的描述,什么情況下神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模
型?0
A、加入更多層,使神經(jīng)網(wǎng)絡(luò)的深度增加
B、有維度更高的數(shù)據(jù)
C、當(dāng)這是一個(gè)圖形識(shí)別的問題時(shí)
D、以上都不正確
答案:A
56.下面哪些是基于核的機(jī)器學(xué)習(xí)算法?()1ExpectationMaximization(EM)(最大
期望算法)2RadiaIBasisFunction(RBF)(徑向基核函數(shù))3LinearDiscrimimateAn
alysis(LDA)(主成分分析法)4Suppor_tVec_torMachine(SVM)(支持向量機(jī))
A、1,2,3
B、2,3和4
C、3和4
D、全部都是
答案:B
57.下面關(guān)于線性分類器與非線性分類器的區(qū)別以及優(yōu)劣的說法正確的是()。(1)
如果模型是參數(shù)的線性函數(shù),并且存在線性分類面,那么就是線性分類器,否則不
是。(2)常見的線性分類器有:LR,貝葉斯分類,單層感知機(jī)、線性回歸。常見的非
線性分類器:決策樹、RF、GBDT、多層感知機(jī)⑶線性分類器速度快、編程方便,
但是可能擬合效果會(huì)很好⑷非線性分類器編程復(fù)雜,但是效果擬合能力弱
A、1,2
B、3和4
G2,3和4
D、全部正確
答案:A
58.下列時(shí)間序列模型中,哪一個(gè)模型可以較好地?cái)M合波動(dòng)性的分析和預(yù)測。(D)
A、R模型
B、MA模型
GARMA模型
D、GARCH模型
答案:D
59.在邏輯回歸輸出與目標(biāo)對(duì)比的情況下,以下評(píng)估指標(biāo)中哪一項(xiàng)不適用?()
A、UC-ROC
B、準(zhǔn)確度
C、LogIoss
D、均方誤差
答案:D
60.E-R模型向關(guān)系模型轉(zhuǎn)換時(shí),三個(gè)實(shí)體之間多對(duì)多的聯(lián)系應(yīng)該轉(zhuǎn)換為一個(gè)獨(dú)
立的關(guān)系模式,且該關(guān)系模式的關(guān)鍵字由()組成。
A、多對(duì)多聯(lián)系的屬性
B、三個(gè)實(shí)體的關(guān)鍵字
C、任意一個(gè)實(shí)體的關(guān)鍵字1
D、任意兩個(gè)實(shí)體的關(guān)鍵字
答案:B
61.假設(shè)有這樣的一個(gè)示例:types=「娛樂,,‘體育,,’科技〕我們?cè)谑褂昧斜頃r(shí),
以下哪個(gè)選項(xiàng),會(huì)引起索引錯(cuò)誤?0
A、types[-1]
B\types[-2]
Gtypes[0]
D、types[3]
答案:D
62.關(guān)于道德與法律,正確的說法是0。
A、在法律健全完善的社會(huì),不需要道德
B、由于道德不具備法律那樣的強(qiáng)制性,所以道德的社會(huì)功用不如法律
C、在人類歷史上,道德與法律同時(shí)產(chǎn)生
D、在一定條件下,道德與法律能夠相互作用、相互轉(zhuǎn)化
答案:D
63.關(guān)于道德評(píng)價(jià),正確的說法是0。
A、每個(gè)人都能對(duì)他人進(jìn)行道德評(píng)價(jià),但不能做自我道德評(píng)價(jià)
B、道德評(píng)價(jià)是一種純粹的主觀判斷,沒有客觀依據(jù)和標(biāo)準(zhǔn)
C、領(lǐng)導(dǎo)的道德評(píng)價(jià)具有權(quán)威性
D、對(duì)一種行為進(jìn)行道德評(píng)價(jià),關(guān)鍵看其是否符合社會(huì)道德規(guī)范
答案:D
64.目標(biāo)變量在訓(xùn)練集上的8個(gè)實(shí)際值[0,0,0,1,1,1,1,1],目標(biāo)變量的烯是多少?
0
A、-(5/81og(5/8)+3/81og(3/8))
B、5/81og(5/8)+3/81og(3/8)
G3/81og(5/8)+5/81og(3/8)
D、5/81og(3/8)-3/81og(5/8)
答案:A
65.邏輯回歸的以下模型:P(y=1|x,w)=g(w0+w1x)其中g(shù)(z)是邏輯函數(shù)。在上述
等式中,通過改變參數(shù)w可以得到的P(y=1|x;w)被視為x的函數(shù)。()
A、(0,inf)
B、(-inf,0)
C、(0,1)
D\(-inf,inf)
答案:C
66.假設(shè)使用維數(shù)降低作為預(yù)處理技術(shù),使用PCA將數(shù)據(jù)減少到k維度。然后使用
這些PCA預(yù)測作為特征,以下哪個(gè)聲明是正確的?()
A、更高的“k”意味著更正則化
B、更高的“k”意味著較少的正則化
C、都不對(duì)
D、都是正確的
答案:B
67.如果增加神經(jīng)網(wǎng)絡(luò)的寬度,精確度會(huì)增加到一個(gè)閾值,然后開始降低。造成這
一現(xiàn)象的原因可能是0。
A、只有一部分核被用于預(yù)測
B、當(dāng)核數(shù)量增加,神經(jīng)網(wǎng)絡(luò)的預(yù)測能力降低
C、當(dāng)核數(shù)量增加,其相關(guān)性增加,導(dǎo)致過擬合
D、以上都不對(duì)
答案:C
68.()很大程度上緩解了人工收費(fèi)的壓力,并且有效地降低了停車場出入口的擁
堵頻率。
A、自動(dòng)停車系統(tǒng)
B、自動(dòng)收費(fèi)系統(tǒng)
C、自動(dòng)駕駛系統(tǒng)
D、自動(dòng)導(dǎo)航系統(tǒng)
答案:B
69.以下哪種算法不能用于降低數(shù)據(jù)的維數(shù)?()
A、t-SNE
B、PCA
C、LDA
D、都不是
答案:D
70.下列關(guān)于靜態(tài)多態(tài)實(shí)現(xiàn)重載的描述中正確的是0。
A、重載的方法(函數(shù))的方法名(函數(shù)名)可以不同
B、重載的方法(函數(shù))必須在返回值類型以及參數(shù)類型上有所不同
C、重載的方法(函數(shù))必須在參數(shù)順序或參數(shù)類型上有所不同
D、重載的方法(函數(shù))只需在返回值類型上有所不同
答案:C
71.輸入圖片大小為200X200,依次經(jīng)過一層卷積(kerneIsize5X5,padding1,s
tride2),pooIing(kerneIsize3X3,paddingO,stridel),又一層卷積(kerneIsiz
e3X3,paddingl,stridel)之后,輸出特征圖大小為()。
A、97
B、98
C、96
D、95
答案:A
72.以下哪種方法不屬于特征選擇的標(biāo)準(zhǔn)方法:()。
A、嵌入
B、過濾
C、包裝
D、抽樣
答案:D
73.關(guān)于正態(tài)分布,下列說法錯(cuò)誤的是0。
A、正態(tài)分布具有集中性和對(duì)稱性
B、正態(tài)分布的均值和方差能夠決定正態(tài)分布的位置和形態(tài)
C、正態(tài)分布的偏度為0,峰度為1
D、標(biāo)準(zhǔn)正態(tài)分布的均值為0,方差為1
答案:C
74.邏輯回歸與多元回歸分析有哪些不同?()
A、邏輯回歸預(yù)測某事件發(fā)生的概率
B、邏輯回歸有較高的擬合效果
C、邏輯回歸系數(shù)的評(píng)估
D、以上全選
答案:D
75.設(shè)有二維數(shù)組a[l、m,I、n](2<m〈n),其第一個(gè)元素為a[IJ],最后一個(gè)元素
為a[m,n],若數(shù)組元素以行為主序存放,每個(gè)元素占用k個(gè)存儲(chǔ)單元(k>I),則元
素a[2,2]的存儲(chǔ)位置相對(duì)于數(shù)組空間首地址的偏移量為()。
A、(n+l)*k
B、n*k+l
C、(m+I)*k
D、m*k+l
答案:A
76.()可以大大地解放老師的雙手和工作量,提升教學(xué)的效率。
A、智能搜題
B、智能批改
C、智能答題
D、智能命題
答案:B
77.下面python內(nèi)置int()函數(shù)使用,不能得到預(yù)期值的是()。
A、int('12',l6)的值為16
B、int('12',8)的值為10
C、int('12')的值為12
D、int(10「,2)的值為5
答案:A
78.關(guān)于SVM泛化誤差描述正確的是()。
A、超平面與支持向量之間距離
B、SVM對(duì)未知數(shù)據(jù)的預(yù)測能力
C、SVM的誤差閾值
D、以上都對(duì)
答案:D
79.在感知機(jī)中(Perceptron)的任務(wù)順序是()。(1)隨機(jī)初始化感知機(jī)的權(quán)重⑵
去到數(shù)據(jù)集的下一批(batch)(3)如果預(yù)測值和輸出不一致,則調(diào)整權(quán)重(4)對(duì)一
個(gè)輸入樣本,計(jì)算輸出值
A、1,2,3,4
B、4,3,2,1
Cx1,4,3,2
D、3,4,1,2
答案:c
80.在指令系統(tǒng)的各種尋址方式中,獲取操作數(shù)最快的方式是0。
A、直接尋址
B、間接尋址
C、立即尋址
D、寄存器尋址
答案:C
81.在存儲(chǔ)體系中,位于主存與CPU之間的高速緩存(Cache)用于存放主存中部分
信息的副本,主存地址與Cache地址之間的轉(zhuǎn)換工作0。
A、由系統(tǒng)軟件實(shí)現(xiàn)
B、由硬件自動(dòng)完成
C、由應(yīng)用軟件實(shí)現(xiàn)
D、由用戶發(fā)出指令完成
答案:B
82.下面關(guān)于Hive的說法正確的是()。
AxHive是基于Hadoop的一個(gè)數(shù)據(jù)倉庫工具,可以將結(jié)構(gòu)化的數(shù)據(jù)文本映射為一
張數(shù)據(jù)庫表,并提供簡單的SQL查詢功能
B、Hive可以直接使用SQL語句進(jìn)行相關(guān)操作
C、Hive能夠在大規(guī)模數(shù)據(jù)集上實(shí)現(xiàn)低延遲快速的查詢
D、Hivez在加載數(shù)據(jù)過程中不會(huì)對(duì)數(shù)據(jù)進(jìn)行任何的修改,只是將數(shù)據(jù)移動(dòng)到HDF
S中Hive設(shè)定的目錄下
答案:A
83.在一個(gè)n維的空間中,最好的檢測outlier(離群點(diǎn))的方法是:()。
A、作正態(tài)分布概率圖
B、作盒形圖
C、馬氏距離
D、作散點(diǎn)圖
答案:C
84.為了得到和SVD一樣的投射(projection),你需要在PCA中怎樣做?()
A、將數(shù)據(jù)轉(zhuǎn)換成零均值
B、將數(shù)據(jù)轉(zhuǎn)換成零中位數(shù)
C、無法做到
D、以上方法不行
答案:A
85.人工智能數(shù)據(jù)主要分本文數(shù)據(jù)、語音數(shù)據(jù)、圖像數(shù)據(jù)、()幾大類別。
A、通訊數(shù)據(jù)
B、視頻數(shù)據(jù)
C、結(jié)構(gòu)化數(shù)據(jù)
D、非結(jié)構(gòu)化數(shù)據(jù)
答案:B
86.最出名的降維算法是PAC和LSNE。將這兩個(gè)算法分別應(yīng)用到數(shù)據(jù)「X」上,
并得到數(shù)據(jù)集X_projected_PCA,X_projected_tSNEo下面哪一項(xiàng)對(duì)X_projecte
d_PCA和X_projected_tSNE的描述是正確的?()
A、X_projected_PCA在最近鄰空間能得到解釋
B\X_projected_tSNE在最近鄰空間能得到解釋
C、兩個(gè)都在最近鄰空間能得到解釋
D、兩個(gè)都不能在最近鄰空間得到解釋
答案:B
87.計(jì)算機(jī)系統(tǒng)中,CPU對(duì)主存的訪問方式屬于()。
A、隨機(jī)存取
B、順序存取
C、索引存取
D、哈希存取
答案:A
88.以下關(guān)于正則化的陳述哪一個(gè)是正確的?()
A、使用太大的入值可能會(huì)導(dǎo)致您的假設(shè)與數(shù)據(jù)過擬合;這可以通過減小人來避免
B、使用非常大的值人不會(huì)影響假設(shè)的性能;我們不將人設(shè)置為太大的唯一原因是
避免數(shù)值問題
C、考慮一個(gè)分類問題。添加正則化可能會(huì)導(dǎo)致分類器錯(cuò)誤地分類某些訓(xùn)練示例
(當(dāng)不使用正則化時(shí),即當(dāng)入=0時(shí),它正確地分類了這些示例)
D、由于邏輯回歸的輸出值OWhB(x)W1,其輸出值的范圍無論如何只能通過正
則化來“縮小”一點(diǎn),因此正則化通常對(duì)其沒有幫助
答案:C
89.SVM的效率依賴于()。
A、核函數(shù)的選擇
B、核參數(shù)
C、軟間隔參數(shù)
D、以上所有
答案:D
90.下列哪一個(gè)圖片的假設(shè)與訓(xùn)練集過擬合?0
答案:A
91.航空航天領(lǐng)域?qū)τ?)和精密性有著極高的要求。
A、科技性
B、嚴(yán)謹(jǐn)性
C、安全性
D、精確性
答案:C
92.一般做機(jī)器學(xué)習(xí)應(yīng)用的時(shí)候大部分時(shí)間是花費(fèi)在特征處理上,其中很關(guān)鍵的
一步就是對(duì)特征數(shù)據(jù)進(jìn)行歸一化,歸一化的作用是()。
A、歸一化后降低了梯度下降求最優(yōu)解的速度,提高了精度
B、歸一化不能提高精度
C、如果機(jī)器學(xué)習(xí)模型使用梯度下降法求最優(yōu)解時(shí),不做歸一化處理,很難收斂甚
至不能收斂。
D、以上說法都不正確
答案:C
93.假如我們使用非線性可分的SVM目標(biāo)函數(shù)作為最優(yōu)化對(duì)象,我們?cè)趺幢WC模
型線性可分?0
A、設(shè)C=1
B、設(shè)C=0
C\設(shè)c=無窮大
D、以上都不對(duì)
答案:C
94.下面哪個(gè)/些超參數(shù)的增加可能會(huì)造成隨機(jī)森林?jǐn)?shù)據(jù)過擬合?0
A、樹的數(shù)量
B、樹的深度
C、學(xué)習(xí)速率
D、學(xué)習(xí)次數(shù)
答案:B
95.bootstrap數(shù)據(jù)是什么意思?0
A、有放回地從總共M個(gè)特征中抽樣m個(gè)特征
B、無放回地從總共M個(gè)特征中抽樣m個(gè)特征
C、有放回地從總共N個(gè)樣本中抽樣n個(gè)樣本
D、無放回地從總共N個(gè)樣本中抽樣n個(gè)樣本
答案:c
96.十六進(jìn)制64H轉(zhuǎn)換成二進(jìn)制和十進(jìn)制的值分別是0。
A、1100111B96D
B、1100100B100D
G0100100B100D
D、1010110B96D
答案:B
解析:答案解析:十六進(jìn)制數(shù)64H轉(zhuǎn)換為二進(jìn)制時(shí),6對(duì)應(yīng)二進(jìn)制的110,4對(duì)
應(yīng)二進(jìn)制的100,組合起來就是1100100B。轉(zhuǎn)換為十進(jìn)制時(shí),6乘以16的1次
方等于96,4乘以16的0次方等于4,相加得到100D。所以,十六進(jìn)制64H轉(zhuǎn)
換成二進(jìn)制和十進(jìn)制的值分別是1100100B和100D,選項(xiàng)B是正確的。
97.我們建立一個(gè)5000個(gè)特征,100萬數(shù)據(jù)的機(jī)器學(xué)習(xí)模型。我們?cè)趺从行У貞?yīng)
對(duì)這樣的大數(shù)據(jù)訓(xùn)練:()。1我們隨機(jī)抽取一些樣本,在這些少量樣本之上訓(xùn)練2
我們可以試用在線機(jī)器學(xué)習(xí)算法3我們應(yīng)用PCA算法降維,減少特征數(shù)
A、1和2
B、2和3
C、以上都是
D、以上都不是
答案:C
98.下列哪一項(xiàng)屬于特征學(xué)習(xí)算法(representationIearningaIgorithm)?(C)
A、K近鄰算法
B、隨機(jī)森林
C\神經(jīng)網(wǎng)絡(luò)
D\都不屬于
答案:C
99.樣本庫功能要求為:數(shù)據(jù)接入包括()文件導(dǎo)入、HDFS數(shù)據(jù)導(dǎo)入、FTP文件導(dǎo)入、
NFS數(shù)據(jù)導(dǎo)入和數(shù)據(jù)庫數(shù)據(jù)導(dǎo)入。
A、遠(yuǎn)程
B、本地
G云端
D、SAMBA
答案:B
100.下列關(guān)于職業(yè)道德的說法中,你認(rèn)為正確的是()。
A、職業(yè)道德與人格高低無關(guān)
B、職業(yè)道德的養(yǎng)成只能靠社會(huì)強(qiáng)制規(guī)定
C、職業(yè)道德從一個(gè)側(cè)面反映人的道德素質(zhì)
D、職業(yè)道德素質(zhì)的提高與從業(yè)人員的個(gè)人利益無關(guān)
答案:C
101.在以下不同的場景中,使用的分析方法不正確的有()。
A、根據(jù)商家最近一年經(jīng)營及服務(wù)數(shù)據(jù),用聚類算法判斷出天貓商家在各自主營類
目下所屬的商家層級(jí)
B、根據(jù)商家近幾年的成交數(shù)據(jù),用聚類算法擬合出用戶未來一個(gè)月可能的消費(fèi)金
額公式
C、用關(guān)聯(lián)規(guī)則算法分析出購買了汽車坐墊的買家,是否適合推薦汽車腳墊
D、根據(jù)用戶最近購買的商品信息,用決策樹算法識(shí)別出淘寶買家可能是男還是女
答案:B
102.如果我們用了一個(gè)過大的學(xué)習(xí)速率會(huì)發(fā)生什么?()
A、神經(jīng)網(wǎng)絡(luò)會(huì)收斂
B、不好說
C、都不對(duì)
D、神經(jīng)網(wǎng)絡(luò)不會(huì)收斂
答案:D
103.給定三個(gè)變量X,Y,Zo(X,Y)、(Y,Z)和(X,Z)的Pearson相關(guān)性系數(shù)分別為C
1、C2和C3。現(xiàn)在X的所有值加2(即X+2),Y的全部值減2(即Y-2),Z保持不變。
那么運(yùn)算之后的(X,Y)、(Y,Z)和(X,Z)相關(guān)性系數(shù)分別為D1、D2和D3。現(xiàn)在試
問D1、D2、D3和C1、C2、C3之間的關(guān)系是什么?()
A、D1=C1,D2<C2,D3>C3
B、D1=C1,D2>C2,D3>C3
C、D1=C1,D2>C2,D3<C3
D、1=C1,D2=C2,D3=C3
答案:D
104.下列哪項(xiàng)關(guān)于模型能力(modeIcapacity)的描述是正確的?()(指神經(jīng)網(wǎng)絡(luò)模
型能擬合復(fù)雜函數(shù)的能力)
A、隱藏層層數(shù)增加,模型能力增加
B、Dropout的比例增加,模型能力增加
C、學(xué)習(xí)率增加,模型能力增加
D、都不正確
答案:A
105.以下說法中錯(cuò)誤的是0。
A、SVM對(duì)噪聲(如來自其他分部的噪聲樣本)具備魯棒性
B、在adaboost算法中,所有被分錯(cuò)樣本的權(quán)重更新比例不相同
Cvboosting和bagging都是組合多個(gè)分類器投票的方法,二者都是根據(jù)單個(gè)分
類器的正確率確定其權(quán)重
D、給定n個(gè)數(shù)據(jù)點(diǎn),如果其中一半用于訓(xùn)練,一半用戶測試,則訓(xùn)練誤差和測試誤
差之間的差別會(huì)隨著n的增加而減少的
答案:C
106.下列選擇中,說法正確的是:()。
A、繼承(inheritance)允許一個(gè)類獲取另一個(gè)類的所有成員和屬性。被繼承的類
稱為超類,而繼承的類稱為派生類/子類。
B、多態(tài)(Polymorphism)的意思是「多種形式」。子類可以定義自己的獨(dú)特行為,
但不能共享其父類/基類的相同功能或行為
C、Python可以不支持多重繼承。一個(gè)類只能從一個(gè)父類派生。
D、封裝(Encapsulation)意味著將數(shù)據(jù)和成員函數(shù)包裝在一起成為一個(gè)單元。不
能實(shí)現(xiàn)數(shù)據(jù)隱藏。
答案:A
107.Python是面向?qū)ο笳Z言,關(guān)于類和對(duì)象的說法不正確的是:()。
A、類(Class)被視為對(duì)象的藍(lán)圖。類中的第一行字符串稱為doc字符串,包含該
類的簡短描述。
B、this表示類的實(shí)例,通過使用this關(guān)鍵字,可以在Python中訪問類的屬性和
方法
C、使用class關(guān)鍵字可以創(chuàng)建了一個(gè)類。一個(gè)類包含變量和成員組合,稱為類成
員。
D、對(duì)象(Object)是真實(shí)存在的實(shí)體。在Python中為類創(chuàng)建一個(gè)對(duì)象,我們可以
使用obj=CLASS_NAME()
答案:B
108.NaiveBayes是一種特殊的Bayes分類器,特征變量是X,類別標(biāo)簽是C,它的
一個(gè)假定是:()。
A、各類別的先驗(yàn)概率P(C)是相等的
B、以0為均值,sqr(2)/2為標(biāo)準(zhǔn)差的正態(tài)分布
C、特征變量X的各個(gè)維度是類別條件獨(dú)立隨機(jī)變量
D、P(X|C)是高斯分布
答案:C
109.我國公民的基本道德規(guī)范是()、團(tuán)結(jié)友善、勤儉自強(qiáng)、敬業(yè)奉獻(xiàn)。
A、愛國愛企、明禮誠信
B、愛國守法、明禮誠信
C、愛崗敬業(yè)'誠實(shí)守信
D、遵紀(jì)守法、誠實(shí)信用
答案:B
110.下圖是同一個(gè)SVM模型,但是使用了不同的徑向基核函數(shù)的gamma參數(shù),依次
是g1,g2,g3,下面大小比較正確的是()。
A、g1>g2>g3
B\g1—g2—g3
Gg1<g2<g3
D、g1>=g2>=g3
答案:C
111.隨著人工智能技術(shù)的發(fā)展,通過()、虹膜識(shí)別'指紋識(shí)別等生物識(shí)別技術(shù)已
推廣到銀行業(yè)的各大主要應(yīng)用場景中。
A、人臉識(shí)別
B、DNA識(shí)別
C、聲紋識(shí)別
D、聲音識(shí)別
答案:A
112.一監(jiān)獄人臉識(shí)別準(zhǔn)入系統(tǒng)用來識(shí)別待進(jìn)入人員的身份,此系統(tǒng)一共包括識(shí)別
4種不同的人員:獄警,小偷,送餐員,其他。下面哪種學(xué)習(xí)方法最適合此種應(yīng)用需
求:()。
A、二分類問題
B、多分類問題
C、層次聚類問題
D、k-中心點(diǎn)聚類問題
答案:B
113.Python中類型轉(zhuǎn)換是指將一種數(shù)據(jù)類型轉(zhuǎn)換為另一種數(shù)據(jù)類型。下列轉(zhuǎn)換
不正確的是。()
A、int()將任何數(shù)據(jù)類型轉(zhuǎn)換為整數(shù)類型,oct()將整數(shù)轉(zhuǎn)換為十六進(jìn)制
Bxtuple()函數(shù)用于轉(zhuǎn)換為元組,set0函數(shù)在轉(zhuǎn)換為set后返回類型。
C、Iist()函數(shù)用于將任何數(shù)據(jù)類型轉(zhuǎn)換為列表類型。
D、ict()函數(shù)用于將順序元組(鍵,值)轉(zhuǎn)換為字典。str()函數(shù)用于將整數(shù)轉(zhuǎn)換為
字符串。
答案:A
114.Logistic回歸分類器是否能對(duì)下列數(shù)據(jù)進(jìn)行完美分類?0
A\是
B、否
C、不確定
D、都不是
答案:B
115.關(guān)于ARMA、R、MA模型的功率譜,下列說法正確的是()
A、MA模型是同一個(gè)全通濾波器產(chǎn)生的
B、MA模型在極點(diǎn)接近單位圓時(shí),MA譜是一個(gè)深谷
C、AR模型在零點(diǎn)接近單位圓時(shí),AR譜是一個(gè)尖峰
D、RMA譜既有尖峰又有深谷
答案:D
116.模型庫存放訓(xùn)練出的()模型或采購來的第三方算法模型。
A、實(shí)體
B、算法
C、數(shù)據(jù)
D、對(duì)象
答案:B
117.給定三個(gè)變量X,Y,Zo(X,Y)、(Y,Z)和(X,Z)的Pearson相關(guān)性系數(shù)分別為C
1、C2和C3。現(xiàn)在X的所有值加2(即X+2),Y的全部值減2(即Y-2),Z保持不變。
那么運(yùn)算之后的(X,Y)、(Y,Z)和(X,Z)相關(guān)性系數(shù)分別為D1、D2和D3。現(xiàn)在試
問D1、D2、D3和C1、C2、C3之間的關(guān)系是什么?()
A、D1=C1,D2<C2,D3>C3
B、D1=C1,D2>C2,D3>C3
C、D1=C1,D2>C2,D3<C3
D、1=C1,D2=C2,D3=C3
答案:D
118.假設(shè)你使用log-loss函數(shù)作為評(píng)估標(biāo)準(zhǔn)。下面這些選項(xiàng),哪些是對(duì)作為評(píng)估
標(biāo)準(zhǔn)的log-loss的正確解釋()。
A、如果一個(gè)分類器對(duì)不正確的分類很自信,log-loss會(huì)嚴(yán)重的批評(píng)它。
B、對(duì)一個(gè)特別的觀察而言,分類器為正確的類別分配非常小的概率,然后對(duì)log-
Ioss的相應(yīng)分布會(huì)非常大。
C、Iog-loss越低,模型越好
D、以上都是
答案:D
119.下面關(guān)于二叉查找樹的說法正確的是0。
A、二叉查找樹,也稱有序二叉樹(orderedbinarytree),或已排序二叉樹(sorted
binarytree)
B、若任意節(jié)點(diǎn)的左子樹不空,則左子樹上所有結(jié)點(diǎn)的值均大于它的根結(jié)點(diǎn)的值。
C、若任意節(jié)點(diǎn)的右子樹不空,則右子樹上所有結(jié)點(diǎn)的值均小于它的根結(jié)點(diǎn)的值。
D、任意節(jié)點(diǎn)的左、右子樹不是二叉查找樹。
答案:A
120.查詢名字第二個(gè)字母為a的人()。
A、SELECT*FROMPersonsWHEREFirstName='%a%'
B、SELECT*FROMPersonsWHEREFirstNameLIKE'%_a%'
C、SELECT*FROMPersonsWHEREFirstNameLIKE'_a%'
D、SELECT*FROMPersonsWHEREFirstNameLIKE'_a_'
答案:C
解析:答案解析:在SQL查詢中,'LIKE'關(guān)鍵字用于在'WHERE'子句中搜索列中
的指定模式。表示任意數(shù)量的字符表示一個(gè)單一的字符。題目要求查詢
名字第二個(gè)字母為a的人,所以正確的模式應(yīng)該是即第一個(gè)字符可以是
任意字符,第二個(gè)字符必須是a,后面可以跟任意數(shù)量的字符。因此,選項(xiàng)C是
正確的答案。
121.預(yù)測分析方法分為兩大類,分別是定性分析法和()。
A、回歸分析法
B、指數(shù)平滑法
C、定量分析法
D、平均法
答案:C
122.人工智能的概念最早是由哪一位科學(xué)家提出來的()?
A、麥卡錫
B、圖林
C、馮?諾依曼
D、明斯基
答案:A
123.對(duì)于投影數(shù)據(jù)為((J2),(0),(J2))。現(xiàn)在如果在二維空間中重建,并將它們
視為原始數(shù)據(jù)點(diǎn)的重建,那么重建誤差是多少?()
A、0%
B、10%
C、30%
D、40%
答案:A
124.人工智能研究的一項(xiàng)基本內(nèi)容是機(jī)器感知。以下列()不屬于機(jī)器感知的領(lǐng)域。
A、使機(jī)器具有視覺、聽覺、觸覺、味覺、嗅覺等感知能力。
B、讓機(jī)器具有理解文字的能力。
C、使機(jī)器具有能夠獲取新知識(shí)、學(xué)習(xí)新技巧的能力。
D、使機(jī)器具有聽懂人類語言的能力
答案:C
125.在計(jì)算機(jī)外部設(shè)備和主存之間直接傳送而不是由CPU執(zhí)行程序指令進(jìn)行數(shù)
據(jù)傳送的控制方式稱為0。
A、程序查詢方式
B、中斷方式
C、并行控制方式
D、MA方式
答案:D
126.在數(shù)據(jù)庫設(shè)計(jì)的需求分析階段應(yīng)完成包括()在內(nèi)的文檔。
A、E-R圖
B、關(guān)系模式
C、數(shù)據(jù)字典和數(shù)據(jù)流圖
D、任務(wù)書和設(shè)計(jì)方案
答案:B
127.()是“一種規(guī)模大到在獲取、存儲(chǔ)、管理、分析方面大大超出了傳統(tǒng)數(shù)據(jù)庫
軟件工具能力范圍的數(shù)據(jù)集合”。
A、數(shù)值
B、數(shù)字
C、數(shù)據(jù)
D、大數(shù)據(jù)
答案:D
128.假設(shè)你在卷積神經(jīng)網(wǎng)絡(luò)的第一層中有5個(gè)卷積核,每個(gè)卷積核尺寸為7X7,
具有零填充且步幅為1。該層的輸入圖片的維度是224X224X3。那么該層輸出
的維度是多少?()
A、217x217x3
B、217x217x8
G218x218x5
D、220x220x7
答案:C
129.當(dāng)在卷積神經(jīng)網(wǎng)絡(luò)中加入池化層(poolinglayer)時(shí),變換的不變性會(huì)被保留,
是嗎?()
A、不知道
B、看情況
C、是
D、否
答案:C
130.某超市研究銷售記錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會(huì)購買尿布,這種
屬于數(shù)據(jù)挖掘的哪類問題?()。
A、關(guān)聯(lián)規(guī)則發(fā)現(xiàn)
B、聚類
C、分類
D、自然語言處理
答案:A
131.下列哪個(gè)不屬于CRF模型對(duì)于HMM和MEMM模型的優(yōu)勢()。
A、特征靈活
B、速度快
C、可容納較多上下文信息
D、全局最優(yōu)
答案:B
132.大數(shù)據(jù)的0與分布式計(jì)算能力也為人工智能提供了強(qiáng)大的儲(chǔ)存、計(jì)算支持,
大大推動(dòng)了人工智能和發(fā)展。
A、分布式儲(chǔ)存
B、大量收集
C、智能傳輸
D、自動(dòng)分析
答案:A
133.如果對(duì)相同的數(shù)據(jù)進(jìn)行邏輯回歸,將花費(fèi)更少的時(shí)間,并給出比較相似的精
度(也可能不一樣),怎么辦?假設(shè)在龐大的數(shù)據(jù)集上使用Logistic回歸模型。可
能遇到一個(gè)問題,Logistic回歸需要很長時(shí)間才能訓(xùn)練。()
A、降低學(xué)習(xí)率,減少迭代次數(shù)
B、降低學(xué)習(xí)率,增加迭代次數(shù)
C、提高學(xué)習(xí)率,增加迭代次數(shù)
D、增加學(xué)習(xí)率,減少迭代次數(shù)
答案:D
134.Python內(nèi)存池機(jī)制,下面的說法正確的是0。(1)Python提供了對(duì)內(nèi)存的垃
圾收集機(jī)制,但是它將不用的內(nèi)存放到內(nèi)存池而不是返回給操作系統(tǒng)。(2)ymall
oc機(jī)制。為了加速Python的執(zhí)行效率,Python引入了一個(gè)內(nèi)存池機(jī)制,用于管理
對(duì)小塊內(nèi)存的申請(qǐng)和釋放。⑶Python中所有大于256個(gè)字節(jié)的對(duì)象都使用pym
alloc實(shí)現(xiàn)的分配器,而小的對(duì)象則使用系統(tǒng)的malloco(4)對(duì)于Python對(duì)象
如整數(shù),浮點(diǎn)數(shù)和List,都有其獨(dú)立的私有內(nèi)存池,對(duì)象間不共享他們的內(nèi)存池。
也就是說如果你分配又釋放了大量的整數(shù),用于緩存這些整數(shù)的內(nèi)存就不能再分
配給浮點(diǎn)數(shù)。
A、1,2和4
B、3和4
C、1,2和3
D、全部正確
答案:A
135.已知一組數(shù)據(jù)的協(xié)方差矩陣P,下面關(guān)于主分量說法錯(cuò)誤的是0。
A、主分量分析的最佳準(zhǔn)則是對(duì)一組數(shù)據(jù)進(jìn)行按一組正交基分解,在只取相同數(shù)量
分量的條件下,以均方誤差計(jì)算截尾誤差最小
B、在經(jīng)主分量分解后,協(xié)方差矩陣成為對(duì)角矩陣
C、主分量分析就是K-L變換
D、主分量是通過求協(xié)方差矩陣的特征值得到
答案:C
136.下列int()函數(shù)使用,不正確的是:()。
A、int('12',16)的值為16
B、int(12,,8)的值為10。
Gint('12')的值為12
D、int('101',2)的值為5。
答案:A
137.與傳統(tǒng)數(shù)據(jù)庫中的數(shù)據(jù)相比,文本數(shù)據(jù)具有其獨(dú)特性,其包括四個(gè)方面。半結(jié)
構(gòu)化、高維、高數(shù)據(jù)量、()。
A、語言性
B、語義性
G語音性
D、結(jié)構(gòu)化
答案:B
138.以下哪種方法能最佳地適應(yīng)邏輯回歸中的數(shù)據(jù)?0
A、LeastSquareError
B、MaximumLikeIihood
C、Jaccarddistance
D、A和B
答案:B
139.作為行為規(guī)范,道德和法律的區(qū)別表現(xiàn)在()。
A、道德的作用沒有法律大
B、道德規(guī)范比法律規(guī)范含糊
C、道德和法律作用的范圍不同
D、道德和法律不能共同起作用
答案:C
140.智能搜題和智能批改都是OCR的文字識(shí)別和()的應(yīng)用。
A、書寫識(shí)別
B、手寫識(shí)別
C、字體識(shí)別
D、文字感知
答案:B
141.什么是KDD?()
A、數(shù)據(jù)挖掘與知識(shí)發(fā)現(xiàn)
B、領(lǐng)域知識(shí)發(fā)現(xiàn)
C、文檔知識(shí)發(fā)現(xiàn)
D、動(dòng)態(tài)知識(shí)發(fā)現(xiàn)
答案:A
142.下列關(guān)于python中的迭代器說法不正確的是:()。
A、迭代器是一個(gè)可以記住遍歷的位置的對(duì)象。
B、迭代器對(duì)象從集合的第一個(gè)元素開始訪問,直到所有的元素被訪問完結(jié)束。迭
代器既能往前,也能后退。
G迭代器有兩個(gè)基本的方法:iter()和next00
D、列表ls=[1,2,3,4],iter(ls)方法是創(chuàng)建迭代器對(duì)象。
答案:B
143.關(guān)于特征選擇,下列對(duì)Ridge回歸和Lasso回歸說法正確的是?0
A、Ridge回歸適用于特征選擇
BvLasso回歸適用于特征選擇
C、兩個(gè)都適用于特征選擇
D、以上說法都不對(duì)
答案:B
144.構(gòu)建一個(gè)神經(jīng)網(wǎng)絡(luò),將前一層的輸出和它自身作為輸入。下列哪一種架構(gòu)有
A、循環(huán)神經(jīng)網(wǎng)絡(luò)
B、卷積神經(jīng)網(wǎng)絡(luò)
C、限制玻爾茲曼機(jī)
D、都不是
答案:A
145.給定以下三個(gè)圖表(從左往右依次為1,2,3)、哪一個(gè)選項(xiàng)對(duì)以這三個(gè)圖表的
描述是正確的?()
A、1是tanh,2是ReLU,3是SIGMOID激活函數(shù)
B、1是SIGMOID,2是ReLU,3是tanh激活函數(shù)
C、1是ReLU,2是tanh,3是SIGMOID激活函數(shù)
D、1是tanh,2是SIGMOID,3是ReLU激活函數(shù)
答案:D
146.為了檢驗(yàn)連續(xù)變量x.y之間的線性關(guān)系,下列哪種圖最合適?()
A、散點(diǎn)圖
B、條形圖
C、直方圖
D、都不對(duì)
答案:A
147.為了解決如何模擬人類的感性思維,例如視覺理解、直覺思維、悟性等,研究
者找到一個(gè)重要的信息處理的機(jī)制是()。
A、專家系統(tǒng)
B、人工神經(jīng)網(wǎng)絡(luò)
C、模式識(shí)別
D、智能代理
答案:B
148.下圖顯示了訓(xùn)練過的3層卷積神經(jīng)網(wǎng)絡(luò)準(zhǔn)確度,與參數(shù)數(shù)量(特征核的數(shù)量)
的關(guān)系。從圖中趨勢可見,如果增加神經(jīng)網(wǎng)絡(luò)的寬度,精確度會(huì)增加到一個(gè)特定閾
值后,便開始降低。造成這一現(xiàn)象的可能原因是什么?()
(
U
E
)
mX
hm
wx
E
J
A、即使增加卷積核的數(shù)量,只有少部分的核會(huì)被用作預(yù)測
B、當(dāng)卷積核數(shù)量增加時(shí),神經(jīng)網(wǎng)絡(luò)的預(yù)測能力(Power)會(huì)降低
C、當(dāng)卷積核數(shù)量增加時(shí),它們之間的相關(guān)性增加(correlate),導(dǎo)致過擬合
D、以上都不正確
答案:C
149.下面是三個(gè)散點(diǎn)圖(A,B,C,從左到右)和手繪的邏輯回歸決策邊界。上圖中哪
一個(gè)顯示了決策邊界過度擬合訓(xùn)練數(shù)據(jù)()?
A
A、
B、
C\
D、這些都沒有
答案:C
150.在計(jì)算機(jī)中,某個(gè)圖片文件的大小1MB,指的是0。
A、1024*1024個(gè)比特(Bit)
B、1024*1024個(gè)字節(jié)(Byte)
G1000*1000個(gè)比特(Bit)
D、1000*1000個(gè)字節(jié)(Byte)
答案:B
151.建立一個(gè)模型,通過這個(gè)模型根據(jù)已知的變量值來預(yù)測其他某個(gè)變量值屬于
數(shù)據(jù)挖掘的哪一類任務(wù)?()
A、根據(jù)內(nèi)容檢索
B、建模描述
C、預(yù)測建模
D、尋找模式和規(guī)則
答案:C
152.假定你正在處理類屬特征,并且沒有查看分類變量在測試集中的分布。現(xiàn)在
你想將onehotencoding(OHE)應(yīng)用到類屬特征中。那么在訓(xùn)練集中將OHE應(yīng)用到
分類變量可能要面臨的困難是什么?0
A、分類變量所有的類別沒有全部出現(xiàn)在測試集中
B、類別的頻率分布在訓(xùn)練集和測試集是不同的
C、訓(xùn)練集和測試集通常會(huì)有一樣的分布
D、A和B都正確
答案:D
153.在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),損失函數(shù)(loss)在最初的幾個(gè)epochs時(shí)沒有下降,可能
的原因是?()
A、學(xué)習(xí)率(learningrate)太低
B、正則參數(shù)太高
C、陷入局部最小值
D、以上都有可能
答案:A
154.()是公民道德建設(shè)的核心。
A、集體主義
B、愛國主義
C、為人民服務(wù)
D、誠實(shí)守信
答案:C
155.對(duì)于神經(jīng)網(wǎng)絡(luò)的說法,下面正確的是:(D)1增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增加
測試數(shù)據(jù)集的分類錯(cuò)誤率2減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測試數(shù)據(jù)集的分類錯(cuò)
誤率3增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯(cuò)誤率
A、2
B、1和3
C、1和2
D、1
答案:D
156.下列不是SVM核函數(shù)的是:()。
A、多項(xiàng)式核函數(shù)
B、logistic核函數(shù)
C、徑向基核函數(shù)
D、Sigmoid核函數(shù)
答案:B
157.下面關(guān)于推薦系統(tǒng)的說法正確的是()。
A、個(gè)性化推薦:常以“推薦”、“猜你喜歡”、“發(fā)現(xiàn)”等形式出現(xiàn),一般放在
首頁位置
B、相關(guān)推薦:常以“相關(guān)推薦”、“看了還看”等形式出現(xiàn),一般放在內(nèi)容詳情
頁
C、熱門推薦:基于各種數(shù)據(jù)進(jìn)行計(jì)算,得到的排行榜,支持全局排行以及分類排行
等,位置不限
D、以上都是正確的
答案:D
158.中文同義詞替換時(shí),常用到Word2Vec,以下說法錯(cuò)誤的是0。
A、Word2Vec基于概率統(tǒng)計(jì)
B、Word2Vec結(jié)果符合當(dāng)前預(yù)料環(huán)境
C、Word2Vec得到的都是語義上的同義詞
D\Word2Vec受限于訓(xùn)練語料的數(shù)量和質(zhì)量
答案:C
159.下列哪個(gè)不是人工智能的研究領(lǐng)域()。
A、機(jī)器證明
B、模式識(shí)別
C、人工生命
D、編譯原理
答案:D
160.下列哪一項(xiàng)沒有違反誠實(shí)守信的要求()。
A、保守企業(yè)秘密
B、為了牟取暴利,制造偽劣商品
C、根據(jù)服務(wù)對(duì)象來決定是否遵守承諾
D、派人打進(jìn)競爭對(duì)手內(nèi)部,增強(qiáng)競爭優(yōu)勢
答案:A
161.批規(guī)范化(BatchNormaIization)的好處都有啥?()
A、在將所有的輸入傳遞到下一層之前對(duì)其進(jìn)行歸一化(更改)
B、它將權(quán)重的歸一化平均值和標(biāo)準(zhǔn)差
C、它是一種非常有效的反向傳播(BP)方法
D、這些均不是
答案:A
162.以下幾種模型方法屬于判別式模型(口15匚M1皿1:26初℃^1)的有0。(1)混合
高斯模型⑵條件隨機(jī)場模型⑶區(qū)分度訓(xùn)練⑷隱馬爾科夫模型
A、2,3
B、3,4
C\1,4
D、1,2
答案:A
163.采用面向?qū)ο箝_發(fā)方法時(shí),對(duì)象是系統(tǒng)運(yùn)行時(shí)基本實(shí)體。以下關(guān)于對(duì)象的敘
述中,正確的是0。
A、對(duì)象只能包括數(shù)據(jù)(屬性)
B、對(duì)象只能包括操作(行為)
C、對(duì)象一定有相同的屬性和行為
D、對(duì)象通常由對(duì)象名、屬性和操作三個(gè)部分組成
答案:D
164.以下描述正確的是()。
A、SVM是這樣一個(gè)分類器,它尋找具有最小邊緣的超平面,因此它也經(jīng)常被稱為
最小邊緣分類器
B、在聚類分析當(dāng)中,簇內(nèi)的相似性越大,簇間的差別越大,聚類的效果就越差
C、在決策樹中,隨著樹中結(jié)點(diǎn)樹變得太大,即使模型的訓(xùn)練誤差還在繼續(xù)降低,
但是檢驗(yàn)誤差開始增大,這是出現(xiàn)了模型擬合不足的原因
D、聚類分析可以看作是一種非監(jiān)督的分類
答案:D
165.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,知道每一個(gè)神經(jīng)元的權(quán)重和偏差是最重要的一步。如果
知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,便可以近似任何函數(shù),但怎么獲知每個(gè)神經(jīng)的
權(quán)重和偏移呢?0
A、搜索每個(gè)可能的權(quán)重和偏差組合,直到得到最佳值
B、賦予一個(gè)初始值,然后檢查跟最佳值的差值,不斷迭代調(diào)整權(quán)重
C、隨機(jī)賦值,聽天由命
D、以上都不正確的
答案:B
166.如果線性回歸模型中的隨機(jī)誤差存在異方差性,那么參數(shù)的OLS估計(jì)量是0。
A、無偏的,有效的
B、無偏的,非有效的
G有偏的,有效的
D、有偏的,非有效的
答案:B
167.下面哪項(xiàng)操作能實(shí)現(xiàn)跟神經(jīng)網(wǎng)絡(luò)中Dropout的類似效果?()
AvBoosting
B、agging
C、Stacking
D、Mapping
答案:B
168.假設(shè)我們有一個(gè)數(shù)據(jù)集,在一個(gè)深度為6的決策樹的幫助下,它可以使用100%
的精確度被訓(xùn)練。現(xiàn)在考慮以下兩點(diǎn),并基于這兩點(diǎn)選擇正確的選項(xiàng)0。1深度
為4時(shí)將有高偏差和低方差2深度為4時(shí)將有低偏差和低方差
A、只有1
B、只有2
C、1和2
D、沒有一個(gè)
答案:A
169.下面關(guān)于炳的說法正確的是()。⑴烯的概念最早起源于物理學(xué),用于度量一
個(gè)熱力學(xué)系統(tǒng)的無序程度。在信息論里面,峭是對(duì)確定性的測量。(2)婚的英文原
文為entropy,最初由德國物理學(xué)家魯?shù)婪?克勞修斯提出,表示一個(gè)系統(tǒng)在不受
外部干擾時(shí),其內(nèi)部最不穩(wěn)定的狀態(tài)。⑶任何粒子的常態(tài)都是隨機(jī)運(yùn)動(dòng),也就是"
無序運(yùn)動(dòng)",如果讓粒子呈現(xiàn)“有序化",必須耗費(fèi)能量。所以,溫度(熱能)可以被看
作"有序化”的一種度量,而"端"可以看作是“無序化”的度量。⑷如果沒有外部能
量輸入,封閉系統(tǒng)趨向越來越混亂(炳越來越大)o比如,如果房間無人打掃,不可
能越來越干凈(有序化),只可能越來越亂(無序化)。
A、1和2
B、3和4
C、1,2和3
D、全部正確
答案:B
170.對(duì)于一個(gè)圖像識(shí)別問題(在一張照片里找出一只貓),下面哪種神經(jīng)網(wǎng)絡(luò)可以
更好地解決這個(gè)問題?()
A、循環(huán)神經(jīng)網(wǎng)絡(luò)
B、感知機(jī)
C、多層感知機(jī)
D、卷積神經(jīng)網(wǎng)絡(luò)
答案:D
171.有兩個(gè)樣本點(diǎn),第一個(gè)點(diǎn)為正樣本,它的特征向量是(0,7);第二個(gè)點(diǎn)為負(fù)樣
本,它的特征向量是(2,3),從這兩個(gè)樣本點(diǎn)組成的訓(xùn)練集構(gòu)建一個(gè)線性SVM分類
器的分類面方程是0。
A、2x+y=4
B、x+2y=5
C\x+2y=3
D\2x-y=0
答案:C
172.《公民道德建設(shè)實(shí)施綱要》指出我國職業(yè)道德建設(shè)規(guī)范是()。
A、求真務(wù)實(shí)、開拓創(chuàng)新、艱苦奮斗、服務(wù)人民、促進(jìn)發(fā)展
B、愛崗敬業(yè)、誠實(shí)守信、辦事公道、服務(wù)群眾、奉獻(xiàn)社會(huì)
C、以人為本、解放思想、實(shí)事求是、與時(shí)俱進(jìn)、促進(jìn)和諧
D、文明禮貌、勤儉節(jié)約、團(tuán)結(jié)互助、遵紀(jì)守法、開拓創(chuàng)新
答案:B
173.在k-均值算法中,以下哪個(gè)選項(xiàng)可用于獲得全局最小?()
A、嘗試為不同的質(zhì)心(centr。id)初始化運(yùn)行算法
B、調(diào)整迭代的次數(shù)
C、找到集群的最佳數(shù)量
D、以上所有
答案:D
174.假設(shè)我們使用原始的非線性可分版本的Soft-SVM優(yōu)化目標(biāo)函數(shù)。我們需要
做什么來保證得到的模型是線性可分離的?()
A、C=0
B、C=1
C\正無窮大
D、C負(fù)無窮大
答案:C
175.K-Means算法無法聚以下哪種形狀的樣本?()
A、圓形分布
B、螺旋分布
C、帶狀分布
D、凸多邊形分布
答案:B
176.將原始數(shù)據(jù)進(jìn)行集成、變換、維度規(guī)約、數(shù)值規(guī)約是在以下哪個(gè)步驟的任務(wù)?
0
A、頻繁模式挖掘
B、分類和預(yù)測
C、數(shù)據(jù)預(yù)處理
D、數(shù)據(jù)流挖掘
答案:C
177.當(dāng)數(shù)據(jù)過大以至于無法在RAM中同時(shí)處理時(shí),哪種梯度下降方法更加有效?
0
A、隨機(jī)梯度下降法(StochasticGradientDescent)
B、不知道
G整批梯度下降法(FuIIBatchGradientDescent)
D、都不是
答案:A
178.下列關(guān)于表達(dá)式的值的說法,正確的是:()
A、表達(dá)式1<2<3的值為True
B\表達(dá)式30r5的值為5
C、表達(dá)式0or5的值為0
D、表達(dá)式3and5的值為3
答案:A
179.下面有關(guān)分類算法的準(zhǔn)確率,召回率,F1值的描述,錯(cuò)誤的是?()
A、準(zhǔn)確率是檢索出相關(guān)文檔數(shù)與檢索出的文檔總數(shù)的比率,衡量的是檢索系統(tǒng)的
查準(zhǔn)率
B、召回率是指檢索出的相關(guān)文檔數(shù)和文檔庫中所有的相關(guān)文檔數(shù)的比率,衡量的
是檢索系統(tǒng)查全率
C、正確率、召回率和F值取值都在0和1之間,數(shù)值越接近0,查準(zhǔn)率或查全率
就越高
D、為了解決準(zhǔn)確率和召回率沖突問題,引入了F1分?jǐn)?shù)
答案:C
180.下面有關(guān)序列模式挖掘算法的描述,錯(cuò)誤的是?()
AxprioriAII算法和GSP算法都屬于Apriori類算法,都要產(chǎn)生大量的候選序列
B、FreeSpan算法和PrefixSpan算法不生成大量的候選序列以及不需要反復(fù)掃
描原數(shù)據(jù)庫
C\在時(shí)空的執(zhí)行效率上,FreeSpan比PrefixSpan更優(yōu)
D、和AprioriAII相比,GSP的執(zhí)行效率比較高
答案:C
181.考慮某個(gè)具體問題時(shí),你可能只有少量數(shù)據(jù)來解決這個(gè)問題。不過幸運(yùn)的是
你有一個(gè)類似問題已經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)。可以用下面哪種方法來利用這個(gè)
預(yù)先訓(xùn)練好的網(wǎng)絡(luò)?0
A、把除了最后一層外所有的層都凍住,重新訓(xùn)練最后一層
B、對(duì)新數(shù)據(jù)重新訓(xùn)練整個(gè)模型
C、只對(duì)最后幾層進(jìn)行調(diào)參(finetune)
D、對(duì)每一層模型進(jìn)行評(píng)估,選擇其中的少數(shù)來用
答案:C
182.模型庫功能要求為:模型管理包括模型()、模型刪除、版本管理、模型標(biāo)簽、
模型收藏和模型共享。
A、評(píng)估
B、導(dǎo)出
C、輸出
D、導(dǎo)入
答案:D
183.常見的生成式模型是0。
A、K近鄰、SVM、決策樹
B、感知機(jī)、線性判別分析(LDA)
C、線性回歸、傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)、邏輯回歸
D、樸素貝葉斯、隱馬爾可夫模型、高斯混合模型
答案:D
184.下列哪個(gè)函數(shù)不可以做激活函數(shù)?()
A、y=tanh(x)
B\y=sin(x)
Gy=max(x,0)
D、y=2x
答案:D
185.在t-SNE算法中,可以調(diào)整以下哪些超參數(shù)?0
A、維度數(shù)量
B、平穩(wěn)測量有效數(shù)量的鄰居
C、最大迭代次數(shù)
D、以上所有
答案:D
186.智能語音技術(shù)具體可以分為自動(dòng)語音識(shí)別、()、聲紋識(shí)別、語音分類等。
A、語音學(xué)習(xí)
B、語音分析
C、語音合成
D、語音轉(zhuǎn)寫
答案:C
187.閱讀下面的代碼,下面的選項(xiàng)中,不正確的是:()。Ideffun():2yieId13yieI
d24yieId356x=fun()7print(next(x))
A、生成器(generator)的定義與普通函數(shù)類似,生成器使用yield關(guān)鍵字生成值。
B、如果一個(gè)函數(shù)包含yield關(guān)鍵字,那么該函數(shù)將自動(dòng)成為一個(gè)生成器。
C、第6行代碼,x是一個(gè)生成器對(duì)象。
D、第7行代碼,輸出是3。
答案:D
解析:答案解析:在Python中,生成器是一種使用簡單的語法做惰性求值的迭
代器。從給出的代碼來看:A選項(xiàng)正確,生成器的定義確實(shí)與普通函數(shù)類似,只
是使用yield關(guān)鍵字來生成值。B選項(xiàng)正確,如果一個(gè)函數(shù)包含yield關(guān)鍵字,
該函數(shù)就是一個(gè)生成器。C選項(xiàng)正確,第6行代碼調(diào)用函數(shù)fun(),返回一個(gè)生
成器對(duì)象賦值給x。D選項(xiàng)不正確,第7行代碼'print(next(X))'將會(huì)輸出生成
器產(chǎn)生的第一個(gè)值,即1,而不是3。因此,選項(xiàng)D是不正確的。
188.后綴表達(dá)式“ab+cd-*"與表達(dá)式()對(duì)應(yīng)。
A、(a+b)*(c-d)
B\a+b*c-d
C\a+b*(c-d)
D、(a+b)*c-d
答案:A
189.以下哪個(gè)是判別式的模型0。
A、樸素貝葉斯
B、決策樹
C、高斯混合模型
D、文檔主題生成模型(LDA)
答案:B
190.下面選項(xiàng)中,正確的是:()。
A、語句x=(3,)執(zhí)行后x的值為3O
B、語句x=⑶執(zhí)行后x的值為(3,)。
G已知x=3和y=5,執(zhí)行語句X,y=y,x后x的值是5,y的值是3。
D、假設(shè)n為整數(shù),那么表達(dá)式n&1==n%2的值為false。
答案:C
191.在二分類問題中,當(dāng)測試集的正例和負(fù)例數(shù)量不均衡時(shí),以下評(píng)價(jià)方案哪個(gè)
是相對(duì)不合理的()(假設(shè)precision=TP/(TP+FP),recaIl=TP/(TP+FN)□)
A、ccuracy:(TP+TN)/alI
B\F-vaIue:2*recall*precision/(recaII+precision)
C、G-mean:sqrt(precision*recaII)
D、AUC:R0C曲線下面積
答案:A
192.影響基本K-均值算法的主要因素有()。1樣本輸入順序2模式相似性測度3
聚類準(zhǔn)則4初始類中心的選取
A、1,2和4
B、3和4
C、2和4
D、全部正確
答案:A
193.Python中zip函數(shù)稱為拉鏈函數(shù),入?yún)⑹强傻鷮?duì)象,語法是zip(*iterab
les),閱讀下面的代碼,輸出結(jié)果是:()°Numbers=[1,2,3]String=['one','two1,
'three']ResuIt=zip(numbers,string)Print(set(resu11))Print(Iist(resuI
t))
A、第4行代碼輸出是:{(3,1three'),(2,'two'),(1,'one'))
B、第5行代碼輸出是:[(3,'three'),(2,'two'),(1,'one')]
G第4行代碼輸出是:(3,'three'),(2,'two1),(1,'one')
D、第5行代碼輸出是:[⑶'three',2,'two1,1,'one']
答案:A
解析:'zip'函數(shù)在Python中用于將多個(gè)可迭代對(duì)象打包成一個(gè)元組的迭代器,
每個(gè)元組包含所有可迭代對(duì)象在相同位置的元素。給定的代碼中,'Numbers'和'
String'是兩
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- T/CAOE 52-2023含水合物沉積物三軸剪切試驗(yàn)方法
- 黑龍江面試題庫及答案
- 急診培訓(xùn)考試題及答案
- T/CADERM 3001-2019外傷后破傷風(fēng)預(yù)防規(guī)范
- T/CADBM 66-2022建筑室內(nèi)窗飾產(chǎn)品安全無拉繩操作系統(tǒng)
- 夫妻雙方婚前分房協(xié)議書
- 家長自愿征訂教輔協(xié)議書
- 普通勞動(dòng)合同解除協(xié)議書
- 工程工傷后期賠償協(xié)議書
- 昆山床墊倉儲(chǔ)托管協(xié)議書
- 年產(chǎn)3000噸獼猴桃果酒工廠設(shè)計(jì)
- 養(yǎng)老護(hù)理員房間整理課件
- 青光眼的治療與護(hù)理
- 25題退役軍人事務(wù)員崗位常見面試問題含HR問題考察點(diǎn)及參考回答
- 光伏功率預(yù)測物理模型
- 招標(biāo)備案表填寫范本
- 排水管網(wǎng)清淤疏通方案(技術(shù)方案)
- 壓力性損傷臨床防治-國際指南2019-預(yù)防要點(diǎn)-終版
- 酒精度數(shù)、濃度、密度對(duì)照表
- 江蘇省蘇州市某中學(xué)2022-2023學(xué)年八年級(jí)下學(xué)期期末語文試題
- 脊神經(jīng)專題知識(shí)講座
評(píng)論
0/150
提交評(píng)論