第五屆“高新匠領(lǐng)”職業(yè)技能大賽(人工智能算法應(yīng)用賽項(xiàng))理論試題庫(含答案)_第1頁
第五屆“高新匠領(lǐng)”職業(yè)技能大賽(人工智能算法應(yīng)用賽項(xiàng))理論試題庫(含答案)_第2頁
第五屆“高新匠領(lǐng)”職業(yè)技能大賽(人工智能算法應(yīng)用賽項(xiàng))理論試題庫(含答案)_第3頁
第五屆“高新匠領(lǐng)”職業(yè)技能大賽(人工智能算法應(yīng)用賽項(xiàng))理論試題庫(含答案)_第4頁
第五屆“高新匠領(lǐng)”職業(yè)技能大賽(人工智能算法應(yīng)用賽項(xiàng))理論試題庫(含答案)_第5頁
已閱讀5頁,還剩98頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

第五屆“高新匠領(lǐng)”職業(yè)技能大賽(人工智能算法應(yīng)用賽項(xiàng))

理論試題庫(含答案)

一、單選題

1.在其他條件不變的前提下,以下哪種做法容易引起機(jī)器學(xué)習(xí)中的過擬合問題()。

A、增加訓(xùn)練集量

B、減少神經(jīng)網(wǎng)絡(luò)隱藏層節(jié)點(diǎn)數(shù)

C、刪除稀疏的特征

D、SVM算法中使用高斯核/RBF核代替線性核

答案:D

2.下列屬于無監(jiān)督學(xué)習(xí)的是:()。

A、k-means

B、SVM

C、最大炳

D、CRF

答案:A

3.Logit函數(shù)(給定為I(x))是幾率函數(shù)的對(duì)數(shù)。域x=[0,1]中l(wèi)ogit函數(shù)的范圍

是多少?()

A、(-8,8)

B\(0,1)

C、(0,8)

D\(-8,o)

答案:A

4.在深度學(xué)習(xí)中,涉及到大量的矩陣相乘,現(xiàn)在需要計(jì)算三個(gè)稠密矩陣A,B,C的

乘積ABC,假設(shè)三個(gè)矩陣的尺寸分別為m*n,n*p,p*q,且m<n<p<q,以下計(jì)算順

序效率最高的是()。

A、(AB)C

B、AC(B)

C、A(BC)

D、效率都相同

答案:A

5.下面哪種不屬于數(shù)據(jù)預(yù)處理的方法?()

A、變量代換

B、離散化

C、聚集

D、估計(jì)遺漏值

答案:D

6.下列哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線性?()

A、隨機(jī)梯度下降

B、修正線性單元(ReLU)

C、卷積函數(shù)

D、以上都不正確

答案:B

7.使用以下哪種算法進(jìn)行變量選擇?0

A、LASSO

B、Ridge

C\兩者

D、都不是

答案:A

8.模型的高bias是什么意思,我們?nèi)绾谓档退?)

A、在特征空間中減少特征

B、在特征空間中增加特征

C、增加數(shù)據(jù)點(diǎn)

D、B和C

答案:B

9.哪一個(gè)是機(jī)器學(xué)習(xí)的合理定義?()

A、機(jī)器學(xué)習(xí)從標(biāo)記的數(shù)據(jù)中學(xué)習(xí)

B、機(jī)器學(xué)習(xí)能使計(jì)算機(jī)能夠在沒有明確編程的情況下學(xué)習(xí)

C、機(jī)器學(xué)習(xí)是計(jì)算機(jī)編程的科學(xué)

D、機(jī)器學(xué)習(xí)是允許機(jī)器人智能行動(dòng)的領(lǐng)域

答案:B

10.當(dāng)不知道數(shù)據(jù)所帶標(biāo)簽時(shí),可以使用哪種技術(shù)促使帶同類標(biāo)簽的數(shù)據(jù)與帶其

他標(biāo)簽的數(shù)據(jù)相分離?()

A、分類

B、聚類

C、關(guān)聯(lián)分析

D、隱馬爾可夫鏈

答案:B

11.分析邏輯回歸表現(xiàn)的一個(gè)良好的方法是AIC,它與線性回歸中的R平方相似。

有關(guān)AIC,以下哪項(xiàng)是正確的?()

A、具有最小AIC值的模型更好

B、具有最大AIC值的模型更好

C、視情況而定

D、以上都不是

答案:A

12.請(qǐng)選擇下面可以應(yīng)用隱馬爾科夫(HMM)模型的選項(xiàng)。()

A、基因序列數(shù)據(jù)集

B、電影瀏覽數(shù)據(jù)集

C、股票市場數(shù)據(jù)集

D、所有以上

答案:D

13.下列關(guān)于回歸分析中的殘差表述正確的是()。

A、殘差的平均值總為零

B、殘差的平均值總小于零

C、殘差的平均值總大于零

D、殘差沒有此類規(guī)律

答案:A

14.基于統(tǒng)計(jì)的分詞方法為()。

A\正向量最大匹配法

B、逆向量最大匹配法

C、最少切分

D、條件隨機(jī)場

答案:D

15.在數(shù)據(jù)清理中,下面哪個(gè)不是處理缺失值的方法?0

A、估算

B、整例刪除

G變量刪除

D、成對(duì)刪除

答案:D

16.深度學(xué)習(xí)是當(dāng)前很熱門的機(jī)器學(xué)習(xí)算法,在深度學(xué)習(xí)中,涉及到大量的矩陣相

乘,現(xiàn)在需要計(jì)算三個(gè)稠密矩陣A,B,C的乘積ABC,假設(shè)三個(gè)矩陣的尺寸分別為m

*n,n*p,p*q,且m<n<p<q,以下計(jì)算順序效率最高的是()。

A、(AB)C

B、AC(B)

C、A(BC)

D、所以效率都相同

答案:A

17.下面兩張圖展示了兩個(gè)擬合回歸線(A和B),原始數(shù)據(jù)是隨機(jī)產(chǎn)生的。現(xiàn)在,

我想要計(jì)算A和B各自的殘差之和。注意:兩種圖中的坐標(biāo)尺度一樣。關(guān)于A和

B各自的殘差之和,下列說法正確的是?0

AB

A、比B禺

B、A比B小

C、A與B相同

D、以上說法都不對(duì)

答案:C

18.下列哪一種操作實(shí)現(xiàn)了和神經(jīng)網(wǎng)絡(luò)中Dropout類似的效果?()

A、Bagging

B\oosting

C、堆疊

D、以上都不正確

答案:A

19.下列的代碼片段,說法不正確的是:()。

A、表達(dá)式[1,2,3]*3的執(zhí)行結(jié)果為[1,2,3,1,2,3,1,2,3]。

B、語句x=3==3,5執(zhí)行結(jié)束后,變量x的值為(True,5)。

G已知x=3,那么執(zhí)行語句x+=6之后,x的值為9o

D、已知x=3,并且id(x)的返回值為496103280,那么執(zhí)行語句x+=6之后,表達(dá)式

id(x)==496103280的值為true。

答案:D

20.基于二次準(zhǔn)則函數(shù)的H-K算法較之于感知器算法的優(yōu)點(diǎn)是()?

A、計(jì)算量小

B、不可以判別問題是否線性可分

C、其解完全適用于非線性可分的情況

D、其解的適應(yīng)性更好

答案:D

21.假設(shè)你有5個(gè)大小為7x7、邊界值為0的卷積核,同時(shí)卷積神經(jīng)網(wǎng)絡(luò)第一層的

深度為1。此時(shí)如果你向這一層傳入一個(gè)維度為224x224x3的數(shù)據(jù),那么神經(jīng)網(wǎng)

絡(luò)下一層所接收到的數(shù)據(jù)維度是多少?0

A、218x218x5

B、217x217x8

C、217x217x3

D、220x220x5

答案:A

22.下列哪些不特別適合用來對(duì)高維數(shù)據(jù)進(jìn)行降維。()

A、LASSO

B、主成分分析法

C、聚類分析

D、小波分析法

答案:C

23.當(dāng)數(shù)據(jù)過大以至于無法在RAM中同時(shí)處理時(shí),哪種梯度下降方法更加有效?()

A、隨機(jī)梯度下降法(StochasticGradientDescent)

B、不知道

G整批梯度下降法(FuIIBatchGradientDescent)

D、都不是

答案:A

24.()是職業(yè)道德認(rèn)識(shí)和職業(yè)道德情感的統(tǒng)一。

A、職業(yè)道德技能

B、職業(yè)道德義務(wù)

C、職業(yè)道德信念

D、職業(yè)道德素養(yǎng)

答案:D

25.以下哪個(gè)圖是KNN算法的訓(xùn)練邊界()。

輸入數(shù)據(jù)ABCD

A、B

B、A

C、D

D、C

答案:B

26.一個(gè)二進(jìn)制源X發(fā)出符號(hào)集為{-1,1},經(jīng)過離散無記憶信道傳輸,由于信道中

噪音的存在,接收端Y收到符號(hào)集為{7,1,0}。已知P(x=-1)=1/4,P(x=1)=3/4,P

(y=-1|x=-1)=4/5,P(y=O|x=-1)=1/5,P(y=1|x=1)=3/4,P(y=O|x=1)=1/4,求條件

炳H(Y|X)()。

A、0.2375

B、0.3275

C、0.5273

D、0.5372

答案:A

27.一個(gè)計(jì)算機(jī)程序從經(jīng)驗(yàn)E中學(xué)習(xí)任務(wù)T,并用P來衡量表現(xiàn)。并且,T的表現(xiàn)P

隨著經(jīng)驗(yàn)E的增加而提高。假設(shè)我們給一個(gè)學(xué)習(xí)算法輸入了很多歷史天氣的數(shù)據(jù),

讓它學(xué)會(huì)預(yù)測天氣。什么是P的合理選擇?0

A、計(jì)算大量歷史氣象數(shù)據(jù)的過程

B、正確預(yù)測未來日期天氣的概率

C、天氣預(yù)報(bào)任務(wù)

D、以上都不

答案:B

28.關(guān)于"回歸(Regression)"和"相關(guān)(CorreIation)”,下列說法正確的是?

注意:x是自變量,y是因變量0。

A、回歸和相關(guān)在x和y之間都是互為對(duì)稱的

B、回歸和相關(guān)在x和y之間都是非對(duì)稱的

C、回歸在x和y之間是非對(duì)稱的,相關(guān)在x和y之間是互為對(duì)稱的

D、回歸在x和y之間是對(duì)稱的,相關(guān)在x和y之間是非對(duì)稱的

答案:C

29.被譽(yù)為國際“人工智能之父”的是0。

A、圖靈(Turing)

B\費(fèi)根鮑姆(Feigenbaum)

G傅京孫(K、S、Fu)

D、尼爾遜(NiIsson)

答案:A

30.要想讓機(jī)器具有智能,必須讓機(jī)器具有知識(shí)。因此,在人工智能中有一個(gè)研究

領(lǐng)域,主要研究計(jì)算機(jī)如何自動(dòng)獲取知識(shí)與技能,實(shí)現(xiàn)自我完善,這門研究分支學(xué)

科叫()。

A、專家系統(tǒng)

B、機(jī)器學(xué)習(xí)

C、神經(jīng)網(wǎng)絡(luò)

D、模式識(shí)別

答案:B

31.以下關(guān)于誠實(shí)守信的認(rèn)識(shí)和判斷中,正確的選項(xiàng)是()。

A、誠實(shí)守信應(yīng)以追求利益最大化為準(zhǔn)則

B、是否誠實(shí)守信要視具體對(duì)象而定

C、誠實(shí)守信是市場經(jīng)濟(jì)應(yīng)有的法則

D、誠實(shí)守信與經(jīng)濟(jì)發(fā)展相矛盾

答案:C

32.假設(shè)你訓(xùn)練了一個(gè)基于線性核的SVM,多項(xiàng)式階數(shù)為2,在訓(xùn)練集和測試集上

準(zhǔn)確率都為100%。如果增加模型復(fù)雜度或核函數(shù)的多項(xiàng)式階數(shù),將會(huì)發(fā)生什么?

0

A、導(dǎo)致過擬合

B、導(dǎo)致欠擬合

C、無影響,因?yàn)槟P鸵堰_(dá)100%準(zhǔn)確率

D、以上均不正確

答案:A

33.假設(shè)你使用log-loss函數(shù)作為評(píng)估標(biāo)準(zhǔn)。下面這些選項(xiàng),哪些是對(duì)作為評(píng)估

標(biāo)準(zhǔn)的log-loss的正確解釋()。

A、如果一個(gè)分類器對(duì)不正確的分類很自信,log-loss會(huì)嚴(yán)重的批評(píng)它

B、對(duì)一個(gè)特別的觀察而言,分類器為正確的類別分配非常小的概率,然后對(duì)log-

Ioss的相應(yīng)分布會(huì)非常大

C、Iog-loss越低,模型越好

D、以上都是

答案:D

34.語言模型的參數(shù)估計(jì)經(jīng)常使用MLE(最大似然估計(jì))。面臨的一個(gè)問題是沒有

出現(xiàn)的項(xiàng)概率為0,這樣會(huì)導(dǎo)致語言模型的效果不好。為了解決這個(gè)問題,需要使

用:()。

A、平滑

B、去噪

C、隨機(jī)插值

D、增加白噪音

答案:A

35.下列哪個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會(huì)發(fā)生權(quán)重共享?()

A、卷積神經(jīng)網(wǎng)絡(luò)

B、循環(huán)神經(jīng)網(wǎng)絡(luò)

C、全連接神經(jīng)網(wǎng)絡(luò)

D、選項(xiàng)A和B

答案:D

36.SVM中使用高斯核函數(shù)之前通常會(huì)進(jìn)行特征歸一化,以下關(guān)于特征歸一化描

述不正確的是?()

A、經(jīng)過特征正則化得到的新特征優(yōu)于舊特征

B、特征歸一化無法處理類別變量

C、SVM中使用高斯核函數(shù)時(shí),特征歸一化總是有用的

D、以上都是不正確的

答案:C

37.向量X=[1,2,3,4,-9,0]的L1范數(shù)為?()

A、1

B、19

C、6

D、V111

答案:B

38.你正在使用帶有L1正則化的Iogistic回歸做二分類,其中C是正則化參數(shù),

w1和w2是x1和x2的系數(shù)。當(dāng)你把C值從0增加至非常大的值時(shí),下面哪個(gè)選

項(xiàng)是正確的?()

A、第一?"t'w2成了0,接著w1也成了0

B、第一個(gè)w1成了0.接著w2也成了0

Gw1和w2同時(shí)成了0

D、即使在C成為大值之后,w1和w2都不能成0

答案:B

39.下列選擇中,說法是正確的是:()。

A、在Python中nulI表示空類型。

B、列表、元組、字符串是Python的無序序列。

C、查看變量類型的Python內(nèi)置函數(shù)是type。。

D、查看變量內(nèi)存地址的Python內(nèi)置函數(shù)是ids()。

答案:C

40.下面的python代碼片段,定義了函數(shù)fun()并調(diào)用了該函數(shù),輸出結(jié)果是0。

A、報(bào)錯(cuò)

B、123

C、1

D、23

答案:A

41.假設(shè)你需要調(diào)整參數(shù)來最小化代價(jià)函數(shù)(costfunction),可以使用下列哪項(xiàng)

技術(shù)?()

A、窮舉搜索

B、隨機(jī)搜索

GBayesian優(yōu)化

D、以上任意一種

答案:D

42.下列哪一項(xiàng)說明了X,Y之間的較強(qiáng)關(guān)系。()

A、相關(guān)系數(shù)為0、9

B、eta系數(shù)為0的空假設(shè)的p-value是0、0001

C、Beta系數(shù)為0的空假設(shè)的t統(tǒng)計(jì)量是30

D、都不對(duì)

答案:A

43.類域界面方程法中,不能求線性不可分情況下分類問題近似或精確解的方法

是?()

A、偽逆法-徑向基神經(jīng)網(wǎng)絡(luò)的訓(xùn)練算法,就是解決線性不可分的情況

B、基于二次準(zhǔn)則的H-K算法:最小均方差準(zhǔn)則下求得權(quán)矢量,二次準(zhǔn)則解決非線

性問題

C、勢函數(shù)法-非線性

D、感知器算法-線性分類算法

答案:D

44.微機(jī)系統(tǒng)中的系統(tǒng)總線(如PCI)用來連接各功能部件以構(gòu)成一個(gè)完整的系統(tǒng),

它需包括三種不同功能的總線,即()。

A、數(shù)據(jù)總線'地址總線和控制總線

B、同步總線、異步總線和通信總線

C、內(nèi)部總線、外部總線和片內(nèi)總線

D、并行總線、串行總線和USB總線

答案:A

45.對(duì)于一個(gè)分類任務(wù),如果開始時(shí)神經(jīng)網(wǎng)絡(luò)的權(quán)重不是隨機(jī)賦值的,而是都設(shè)成

0,下面哪個(gè)敘述是正確的?()

A、其他選項(xiàng)都不對(duì)

B、沒啥問題,神經(jīng)網(wǎng)絡(luò)會(huì)正常開始訓(xùn)練

C、神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會(huì)變成識(shí)別同樣的東西

D、神經(jīng)網(wǎng)絡(luò)不會(huì)開始訓(xùn)練,因?yàn)闆]有梯度改變

答案:C

46.如果以特征向量的相關(guān)系數(shù)作為模式相似性測度,則影響聚類算法結(jié)果的主

要因素有()。

A、已知類別樣本質(zhì)量

B、分類準(zhǔn)則

C、量綱

D、其他

答案:B

47.以P(w)表示詞條w的概率,假設(shè)已知P(南京)=0.8,P(市長)=0.6,P(長江大橋)

=0.4:P(南京市)=0.3,P(長江大橋)=0.5:假設(shè)前后兩個(gè)詞的出現(xiàn)是獨(dú)立的,那么

分詞結(jié)果就是0。

A、南京市*長江*大橋

B、南京*市長*江大橋

C、南京市長*江大橋

D、南京市*長江大橋

答案:B

48.關(guān)于Logit回歸和SVM不正確的是0。

AvLogit回歸目標(biāo)函數(shù)是最小化后驗(yàn)概率

BxLogit回歸可以用于預(yù)測事件發(fā)生概率的大小

C、SVM目標(biāo)是結(jié)構(gòu)風(fēng)險(xiǎn)最小化

D、SVM可以有效避免模型過擬合

答案:A

49.Fisher線性判別函數(shù)的求解過程是將M維特征矢量投影在(B)中進(jìn)行求解。

A、M-1維空間

B、一維空間

C、三維空間

D、二維空間

答案:B

50.與法律相比,道德0。

A、產(chǎn)生的時(shí)間晚

B、適用范圍更廣

C、內(nèi)容上顯得十分籠統(tǒng)

D、評(píng)價(jià)標(biāo)準(zhǔn)難以確定

答案:B

51.人工智能的目的是讓機(jī)器能夠0,以實(shí)現(xiàn)某些腦力勞動(dòng)的機(jī)械化。

A、和人一樣工作

B、完全代替人的大腦

C、模擬、延伸和擴(kuò)展人的智能

D、具有智能

答案:D

52.下面哪句話是正確的?()

A、機(jī)器學(xué)習(xí)模型的精準(zhǔn)度越高,則模型的性能越好

B、增加模型的復(fù)雜度,總能減小測試樣本誤差

C、增加模型的復(fù)雜度,總能減小訓(xùn)練樣本誤差

D、以上說法都不對(duì)

答案:D

53.在當(dāng)前的人工智能領(lǐng)域,機(jī)器學(xué)習(xí),或者更準(zhǔn)確地說,()的技術(shù)路線已經(jīng)成為

研究的主流。

A、“大數(shù)據(jù)+深度學(xué)習(xí)”

B、“數(shù)據(jù)+學(xué)習(xí)”

C、“大數(shù)據(jù)+去計(jì)算”

D、“云計(jì)算+去中心化”

答案:A

54.在LogisticRegression中,如果同時(shí)加入L1和L2范數(shù),會(huì)產(chǎn)生什么效果()。

A、可以做特征選擇,并在一定程度上防止過擬合

B、能解決維度災(zāi)難問題

C、能加快計(jì)算速度

D、可以獲得更準(zhǔn)確的結(jié)果

答案:A

55.已知:大腦是有很多個(gè)叫做神經(jīng)元的東西構(gòu)成,神經(jīng)網(wǎng)絡(luò)是對(duì)大腦的簡單的數(shù)

學(xué)表達(dá)。每一個(gè)神經(jīng)元都有輸入、處理函數(shù)和輸出。神經(jīng)元組合起來形成了網(wǎng)絡(luò),

可以擬合任何函數(shù)。為了得到最佳的神經(jīng)網(wǎng)絡(luò),我們用梯度下降方法不斷更新模

型,給定上述關(guān)于神經(jīng)網(wǎng)絡(luò)的描述,什么情況下神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模

型?0

A、加入更多層,使神經(jīng)網(wǎng)絡(luò)的深度增加

B、有維度更高的數(shù)據(jù)

C、當(dāng)這是一個(gè)圖形識(shí)別的問題時(shí)

D、以上都不正確

答案:A

56.下面哪些是基于核的機(jī)器學(xué)習(xí)算法?()1ExpectationMaximization(EM)(最大

期望算法)2RadiaIBasisFunction(RBF)(徑向基核函數(shù))3LinearDiscrimimateAn

alysis(LDA)(主成分分析法)4Suppor_tVec_torMachine(SVM)(支持向量機(jī))

A、1,2,3

B、2,3和4

C、3和4

D、全部都是

答案:B

57.下面關(guān)于線性分類器與非線性分類器的區(qū)別以及優(yōu)劣的說法正確的是()。(1)

如果模型是參數(shù)的線性函數(shù),并且存在線性分類面,那么就是線性分類器,否則不

是。(2)常見的線性分類器有:LR,貝葉斯分類,單層感知機(jī)、線性回歸。常見的非

線性分類器:決策樹、RF、GBDT、多層感知機(jī)⑶線性分類器速度快、編程方便,

但是可能擬合效果會(huì)很好⑷非線性分類器編程復(fù)雜,但是效果擬合能力弱

A、1,2

B、3和4

G2,3和4

D、全部正確

答案:A

58.下列時(shí)間序列模型中,哪一個(gè)模型可以較好地?cái)M合波動(dòng)性的分析和預(yù)測。(D)

A、R模型

B、MA模型

GARMA模型

D、GARCH模型

答案:D

59.在邏輯回歸輸出與目標(biāo)對(duì)比的情況下,以下評(píng)估指標(biāo)中哪一項(xiàng)不適用?()

A、UC-ROC

B、準(zhǔn)確度

C、LogIoss

D、均方誤差

答案:D

60.E-R模型向關(guān)系模型轉(zhuǎn)換時(shí),三個(gè)實(shí)體之間多對(duì)多的聯(lián)系應(yīng)該轉(zhuǎn)換為一個(gè)獨(dú)

立的關(guān)系模式,且該關(guān)系模式的關(guān)鍵字由()組成。

A、多對(duì)多聯(lián)系的屬性

B、三個(gè)實(shí)體的關(guān)鍵字

C、任意一個(gè)實(shí)體的關(guān)鍵字1

D、任意兩個(gè)實(shí)體的關(guān)鍵字

答案:B

61.假設(shè)有這樣的一個(gè)示例:types=「娛樂,,‘體育,,’科技〕我們?cè)谑褂昧斜頃r(shí),

以下哪個(gè)選項(xiàng),會(huì)引起索引錯(cuò)誤?0

A、types[-1]

B\types[-2]

Gtypes[0]

D、types[3]

答案:D

62.關(guān)于道德與法律,正確的說法是0。

A、在法律健全完善的社會(huì),不需要道德

B、由于道德不具備法律那樣的強(qiáng)制性,所以道德的社會(huì)功用不如法律

C、在人類歷史上,道德與法律同時(shí)產(chǎn)生

D、在一定條件下,道德與法律能夠相互作用、相互轉(zhuǎn)化

答案:D

63.關(guān)于道德評(píng)價(jià),正確的說法是0。

A、每個(gè)人都能對(duì)他人進(jìn)行道德評(píng)價(jià),但不能做自我道德評(píng)價(jià)

B、道德評(píng)價(jià)是一種純粹的主觀判斷,沒有客觀依據(jù)和標(biāo)準(zhǔn)

C、領(lǐng)導(dǎo)的道德評(píng)價(jià)具有權(quán)威性

D、對(duì)一種行為進(jìn)行道德評(píng)價(jià),關(guān)鍵看其是否符合社會(huì)道德規(guī)范

答案:D

64.目標(biāo)變量在訓(xùn)練集上的8個(gè)實(shí)際值[0,0,0,1,1,1,1,1],目標(biāo)變量的烯是多少?

0

A、-(5/81og(5/8)+3/81og(3/8))

B、5/81og(5/8)+3/81og(3/8)

G3/81og(5/8)+5/81og(3/8)

D、5/81og(3/8)-3/81og(5/8)

答案:A

65.邏輯回歸的以下模型:P(y=1|x,w)=g(w0+w1x)其中g(shù)(z)是邏輯函數(shù)。在上述

等式中,通過改變參數(shù)w可以得到的P(y=1|x;w)被視為x的函數(shù)。()

A、(0,inf)

B、(-inf,0)

C、(0,1)

D\(-inf,inf)

答案:C

66.假設(shè)使用維數(shù)降低作為預(yù)處理技術(shù),使用PCA將數(shù)據(jù)減少到k維度。然后使用

這些PCA預(yù)測作為特征,以下哪個(gè)聲明是正確的?()

A、更高的“k”意味著更正則化

B、更高的“k”意味著較少的正則化

C、都不對(duì)

D、都是正確的

答案:B

67.如果增加神經(jīng)網(wǎng)絡(luò)的寬度,精確度會(huì)增加到一個(gè)閾值,然后開始降低。造成這

一現(xiàn)象的原因可能是0。

A、只有一部分核被用于預(yù)測

B、當(dāng)核數(shù)量增加,神經(jīng)網(wǎng)絡(luò)的預(yù)測能力降低

C、當(dāng)核數(shù)量增加,其相關(guān)性增加,導(dǎo)致過擬合

D、以上都不對(duì)

答案:C

68.()很大程度上緩解了人工收費(fèi)的壓力,并且有效地降低了停車場出入口的擁

堵頻率。

A、自動(dòng)停車系統(tǒng)

B、自動(dòng)收費(fèi)系統(tǒng)

C、自動(dòng)駕駛系統(tǒng)

D、自動(dòng)導(dǎo)航系統(tǒng)

答案:B

69.以下哪種算法不能用于降低數(shù)據(jù)的維數(shù)?()

A、t-SNE

B、PCA

C、LDA

D、都不是

答案:D

70.下列關(guān)于靜態(tài)多態(tài)實(shí)現(xiàn)重載的描述中正確的是0。

A、重載的方法(函數(shù))的方法名(函數(shù)名)可以不同

B、重載的方法(函數(shù))必須在返回值類型以及參數(shù)類型上有所不同

C、重載的方法(函數(shù))必須在參數(shù)順序或參數(shù)類型上有所不同

D、重載的方法(函數(shù))只需在返回值類型上有所不同

答案:C

71.輸入圖片大小為200X200,依次經(jīng)過一層卷積(kerneIsize5X5,padding1,s

tride2),pooIing(kerneIsize3X3,paddingO,stridel),又一層卷積(kerneIsiz

e3X3,paddingl,stridel)之后,輸出特征圖大小為()。

A、97

B、98

C、96

D、95

答案:A

72.以下哪種方法不屬于特征選擇的標(biāo)準(zhǔn)方法:()。

A、嵌入

B、過濾

C、包裝

D、抽樣

答案:D

73.關(guān)于正態(tài)分布,下列說法錯(cuò)誤的是0。

A、正態(tài)分布具有集中性和對(duì)稱性

B、正態(tài)分布的均值和方差能夠決定正態(tài)分布的位置和形態(tài)

C、正態(tài)分布的偏度為0,峰度為1

D、標(biāo)準(zhǔn)正態(tài)分布的均值為0,方差為1

答案:C

74.邏輯回歸與多元回歸分析有哪些不同?()

A、邏輯回歸預(yù)測某事件發(fā)生的概率

B、邏輯回歸有較高的擬合效果

C、邏輯回歸系數(shù)的評(píng)估

D、以上全選

答案:D

75.設(shè)有二維數(shù)組a[l、m,I、n](2<m〈n),其第一個(gè)元素為a[IJ],最后一個(gè)元素

為a[m,n],若數(shù)組元素以行為主序存放,每個(gè)元素占用k個(gè)存儲(chǔ)單元(k>I),則元

素a[2,2]的存儲(chǔ)位置相對(duì)于數(shù)組空間首地址的偏移量為()。

A、(n+l)*k

B、n*k+l

C、(m+I)*k

D、m*k+l

答案:A

76.()可以大大地解放老師的雙手和工作量,提升教學(xué)的效率。

A、智能搜題

B、智能批改

C、智能答題

D、智能命題

答案:B

77.下面python內(nèi)置int()函數(shù)使用,不能得到預(yù)期值的是()。

A、int('12',l6)的值為16

B、int('12',8)的值為10

C、int('12')的值為12

D、int(10「,2)的值為5

答案:A

78.關(guān)于SVM泛化誤差描述正確的是()。

A、超平面與支持向量之間距離

B、SVM對(duì)未知數(shù)據(jù)的預(yù)測能力

C、SVM的誤差閾值

D、以上都對(duì)

答案:D

79.在感知機(jī)中(Perceptron)的任務(wù)順序是()。(1)隨機(jī)初始化感知機(jī)的權(quán)重⑵

去到數(shù)據(jù)集的下一批(batch)(3)如果預(yù)測值和輸出不一致,則調(diào)整權(quán)重(4)對(duì)一

個(gè)輸入樣本,計(jì)算輸出值

A、1,2,3,4

B、4,3,2,1

Cx1,4,3,2

D、3,4,1,2

答案:c

80.在指令系統(tǒng)的各種尋址方式中,獲取操作數(shù)最快的方式是0。

A、直接尋址

B、間接尋址

C、立即尋址

D、寄存器尋址

答案:C

81.在存儲(chǔ)體系中,位于主存與CPU之間的高速緩存(Cache)用于存放主存中部分

信息的副本,主存地址與Cache地址之間的轉(zhuǎn)換工作0。

A、由系統(tǒng)軟件實(shí)現(xiàn)

B、由硬件自動(dòng)完成

C、由應(yīng)用軟件實(shí)現(xiàn)

D、由用戶發(fā)出指令完成

答案:B

82.下面關(guān)于Hive的說法正確的是()。

AxHive是基于Hadoop的一個(gè)數(shù)據(jù)倉庫工具,可以將結(jié)構(gòu)化的數(shù)據(jù)文本映射為一

張數(shù)據(jù)庫表,并提供簡單的SQL查詢功能

B、Hive可以直接使用SQL語句進(jìn)行相關(guān)操作

C、Hive能夠在大規(guī)模數(shù)據(jù)集上實(shí)現(xiàn)低延遲快速的查詢

D、Hivez在加載數(shù)據(jù)過程中不會(huì)對(duì)數(shù)據(jù)進(jìn)行任何的修改,只是將數(shù)據(jù)移動(dòng)到HDF

S中Hive設(shè)定的目錄下

答案:A

83.在一個(gè)n維的空間中,最好的檢測outlier(離群點(diǎn))的方法是:()。

A、作正態(tài)分布概率圖

B、作盒形圖

C、馬氏距離

D、作散點(diǎn)圖

答案:C

84.為了得到和SVD一樣的投射(projection),你需要在PCA中怎樣做?()

A、將數(shù)據(jù)轉(zhuǎn)換成零均值

B、將數(shù)據(jù)轉(zhuǎn)換成零中位數(shù)

C、無法做到

D、以上方法不行

答案:A

85.人工智能數(shù)據(jù)主要分本文數(shù)據(jù)、語音數(shù)據(jù)、圖像數(shù)據(jù)、()幾大類別。

A、通訊數(shù)據(jù)

B、視頻數(shù)據(jù)

C、結(jié)構(gòu)化數(shù)據(jù)

D、非結(jié)構(gòu)化數(shù)據(jù)

答案:B

86.最出名的降維算法是PAC和LSNE。將這兩個(gè)算法分別應(yīng)用到數(shù)據(jù)「X」上,

并得到數(shù)據(jù)集X_projected_PCA,X_projected_tSNEo下面哪一項(xiàng)對(duì)X_projecte

d_PCA和X_projected_tSNE的描述是正確的?()

A、X_projected_PCA在最近鄰空間能得到解釋

B\X_projected_tSNE在最近鄰空間能得到解釋

C、兩個(gè)都在最近鄰空間能得到解釋

D、兩個(gè)都不能在最近鄰空間得到解釋

答案:B

87.計(jì)算機(jī)系統(tǒng)中,CPU對(duì)主存的訪問方式屬于()。

A、隨機(jī)存取

B、順序存取

C、索引存取

D、哈希存取

答案:A

88.以下關(guān)于正則化的陳述哪一個(gè)是正確的?()

A、使用太大的入值可能會(huì)導(dǎo)致您的假設(shè)與數(shù)據(jù)過擬合;這可以通過減小人來避免

B、使用非常大的值人不會(huì)影響假設(shè)的性能;我們不將人設(shè)置為太大的唯一原因是

避免數(shù)值問題

C、考慮一個(gè)分類問題。添加正則化可能會(huì)導(dǎo)致分類器錯(cuò)誤地分類某些訓(xùn)練示例

(當(dāng)不使用正則化時(shí),即當(dāng)入=0時(shí),它正確地分類了這些示例)

D、由于邏輯回歸的輸出值OWhB(x)W1,其輸出值的范圍無論如何只能通過正

則化來“縮小”一點(diǎn),因此正則化通常對(duì)其沒有幫助

答案:C

89.SVM的效率依賴于()。

A、核函數(shù)的選擇

B、核參數(shù)

C、軟間隔參數(shù)

D、以上所有

答案:D

90.下列哪一個(gè)圖片的假設(shè)與訓(xùn)練集過擬合?0

答案:A

91.航空航天領(lǐng)域?qū)τ?)和精密性有著極高的要求。

A、科技性

B、嚴(yán)謹(jǐn)性

C、安全性

D、精確性

答案:C

92.一般做機(jī)器學(xué)習(xí)應(yīng)用的時(shí)候大部分時(shí)間是花費(fèi)在特征處理上,其中很關(guān)鍵的

一步就是對(duì)特征數(shù)據(jù)進(jìn)行歸一化,歸一化的作用是()。

A、歸一化后降低了梯度下降求最優(yōu)解的速度,提高了精度

B、歸一化不能提高精度

C、如果機(jī)器學(xué)習(xí)模型使用梯度下降法求最優(yōu)解時(shí),不做歸一化處理,很難收斂甚

至不能收斂。

D、以上說法都不正確

答案:C

93.假如我們使用非線性可分的SVM目標(biāo)函數(shù)作為最優(yōu)化對(duì)象,我們?cè)趺幢WC模

型線性可分?0

A、設(shè)C=1

B、設(shè)C=0

C\設(shè)c=無窮大

D、以上都不對(duì)

答案:C

94.下面哪個(gè)/些超參數(shù)的增加可能會(huì)造成隨機(jī)森林?jǐn)?shù)據(jù)過擬合?0

A、樹的數(shù)量

B、樹的深度

C、學(xué)習(xí)速率

D、學(xué)習(xí)次數(shù)

答案:B

95.bootstrap數(shù)據(jù)是什么意思?0

A、有放回地從總共M個(gè)特征中抽樣m個(gè)特征

B、無放回地從總共M個(gè)特征中抽樣m個(gè)特征

C、有放回地從總共N個(gè)樣本中抽樣n個(gè)樣本

D、無放回地從總共N個(gè)樣本中抽樣n個(gè)樣本

答案:c

96.十六進(jìn)制64H轉(zhuǎn)換成二進(jìn)制和十進(jìn)制的值分別是0。

A、1100111B96D

B、1100100B100D

G0100100B100D

D、1010110B96D

答案:B

解析:答案解析:十六進(jìn)制數(shù)64H轉(zhuǎn)換為二進(jìn)制時(shí),6對(duì)應(yīng)二進(jìn)制的110,4對(duì)

應(yīng)二進(jìn)制的100,組合起來就是1100100B。轉(zhuǎn)換為十進(jìn)制時(shí),6乘以16的1次

方等于96,4乘以16的0次方等于4,相加得到100D。所以,十六進(jìn)制64H轉(zhuǎn)

換成二進(jìn)制和十進(jìn)制的值分別是1100100B和100D,選項(xiàng)B是正確的。

97.我們建立一個(gè)5000個(gè)特征,100萬數(shù)據(jù)的機(jī)器學(xué)習(xí)模型。我們?cè)趺从行У貞?yīng)

對(duì)這樣的大數(shù)據(jù)訓(xùn)練:()。1我們隨機(jī)抽取一些樣本,在這些少量樣本之上訓(xùn)練2

我們可以試用在線機(jī)器學(xué)習(xí)算法3我們應(yīng)用PCA算法降維,減少特征數(shù)

A、1和2

B、2和3

C、以上都是

D、以上都不是

答案:C

98.下列哪一項(xiàng)屬于特征學(xué)習(xí)算法(representationIearningaIgorithm)?(C)

A、K近鄰算法

B、隨機(jī)森林

C\神經(jīng)網(wǎng)絡(luò)

D\都不屬于

答案:C

99.樣本庫功能要求為:數(shù)據(jù)接入包括()文件導(dǎo)入、HDFS數(shù)據(jù)導(dǎo)入、FTP文件導(dǎo)入、

NFS數(shù)據(jù)導(dǎo)入和數(shù)據(jù)庫數(shù)據(jù)導(dǎo)入。

A、遠(yuǎn)程

B、本地

G云端

D、SAMBA

答案:B

100.下列關(guān)于職業(yè)道德的說法中,你認(rèn)為正確的是()。

A、職業(yè)道德與人格高低無關(guān)

B、職業(yè)道德的養(yǎng)成只能靠社會(huì)強(qiáng)制規(guī)定

C、職業(yè)道德從一個(gè)側(cè)面反映人的道德素質(zhì)

D、職業(yè)道德素質(zhì)的提高與從業(yè)人員的個(gè)人利益無關(guān)

答案:C

101.在以下不同的場景中,使用的分析方法不正確的有()。

A、根據(jù)商家最近一年經(jīng)營及服務(wù)數(shù)據(jù),用聚類算法判斷出天貓商家在各自主營類

目下所屬的商家層級(jí)

B、根據(jù)商家近幾年的成交數(shù)據(jù),用聚類算法擬合出用戶未來一個(gè)月可能的消費(fèi)金

額公式

C、用關(guān)聯(lián)規(guī)則算法分析出購買了汽車坐墊的買家,是否適合推薦汽車腳墊

D、根據(jù)用戶最近購買的商品信息,用決策樹算法識(shí)別出淘寶買家可能是男還是女

答案:B

102.如果我們用了一個(gè)過大的學(xué)習(xí)速率會(huì)發(fā)生什么?()

A、神經(jīng)網(wǎng)絡(luò)會(huì)收斂

B、不好說

C、都不對(duì)

D、神經(jīng)網(wǎng)絡(luò)不會(huì)收斂

答案:D

103.給定三個(gè)變量X,Y,Zo(X,Y)、(Y,Z)和(X,Z)的Pearson相關(guān)性系數(shù)分別為C

1、C2和C3。現(xiàn)在X的所有值加2(即X+2),Y的全部值減2(即Y-2),Z保持不變。

那么運(yùn)算之后的(X,Y)、(Y,Z)和(X,Z)相關(guān)性系數(shù)分別為D1、D2和D3。現(xiàn)在試

問D1、D2、D3和C1、C2、C3之間的關(guān)系是什么?()

A、D1=C1,D2<C2,D3>C3

B、D1=C1,D2>C2,D3>C3

C、D1=C1,D2>C2,D3<C3

D、1=C1,D2=C2,D3=C3

答案:D

104.下列哪項(xiàng)關(guān)于模型能力(modeIcapacity)的描述是正確的?()(指神經(jīng)網(wǎng)絡(luò)模

型能擬合復(fù)雜函數(shù)的能力)

A、隱藏層層數(shù)增加,模型能力增加

B、Dropout的比例增加,模型能力增加

C、學(xué)習(xí)率增加,模型能力增加

D、都不正確

答案:A

105.以下說法中錯(cuò)誤的是0。

A、SVM對(duì)噪聲(如來自其他分部的噪聲樣本)具備魯棒性

B、在adaboost算法中,所有被分錯(cuò)樣本的權(quán)重更新比例不相同

Cvboosting和bagging都是組合多個(gè)分類器投票的方法,二者都是根據(jù)單個(gè)分

類器的正確率確定其權(quán)重

D、給定n個(gè)數(shù)據(jù)點(diǎn),如果其中一半用于訓(xùn)練,一半用戶測試,則訓(xùn)練誤差和測試誤

差之間的差別會(huì)隨著n的增加而減少的

答案:C

106.下列選擇中,說法正確的是:()。

A、繼承(inheritance)允許一個(gè)類獲取另一個(gè)類的所有成員和屬性。被繼承的類

稱為超類,而繼承的類稱為派生類/子類。

B、多態(tài)(Polymorphism)的意思是「多種形式」。子類可以定義自己的獨(dú)特行為,

但不能共享其父類/基類的相同功能或行為

C、Python可以不支持多重繼承。一個(gè)類只能從一個(gè)父類派生。

D、封裝(Encapsulation)意味著將數(shù)據(jù)和成員函數(shù)包裝在一起成為一個(gè)單元。不

能實(shí)現(xiàn)數(shù)據(jù)隱藏。

答案:A

107.Python是面向?qū)ο笳Z言,關(guān)于類和對(duì)象的說法不正確的是:()。

A、類(Class)被視為對(duì)象的藍(lán)圖。類中的第一行字符串稱為doc字符串,包含該

類的簡短描述。

B、this表示類的實(shí)例,通過使用this關(guān)鍵字,可以在Python中訪問類的屬性和

方法

C、使用class關(guān)鍵字可以創(chuàng)建了一個(gè)類。一個(gè)類包含變量和成員組合,稱為類成

員。

D、對(duì)象(Object)是真實(shí)存在的實(shí)體。在Python中為類創(chuàng)建一個(gè)對(duì)象,我們可以

使用obj=CLASS_NAME()

答案:B

108.NaiveBayes是一種特殊的Bayes分類器,特征變量是X,類別標(biāo)簽是C,它的

一個(gè)假定是:()。

A、各類別的先驗(yàn)概率P(C)是相等的

B、以0為均值,sqr(2)/2為標(biāo)準(zhǔn)差的正態(tài)分布

C、特征變量X的各個(gè)維度是類別條件獨(dú)立隨機(jī)變量

D、P(X|C)是高斯分布

答案:C

109.我國公民的基本道德規(guī)范是()、團(tuán)結(jié)友善、勤儉自強(qiáng)、敬業(yè)奉獻(xiàn)。

A、愛國愛企、明禮誠信

B、愛國守法、明禮誠信

C、愛崗敬業(yè)'誠實(shí)守信

D、遵紀(jì)守法、誠實(shí)信用

答案:B

110.下圖是同一個(gè)SVM模型,但是使用了不同的徑向基核函數(shù)的gamma參數(shù),依次

是g1,g2,g3,下面大小比較正確的是()。

A、g1>g2>g3

B\g1—g2—g3

Gg1<g2<g3

D、g1>=g2>=g3

答案:C

111.隨著人工智能技術(shù)的發(fā)展,通過()、虹膜識(shí)別'指紋識(shí)別等生物識(shí)別技術(shù)已

推廣到銀行業(yè)的各大主要應(yīng)用場景中。

A、人臉識(shí)別

B、DNA識(shí)別

C、聲紋識(shí)別

D、聲音識(shí)別

答案:A

112.一監(jiān)獄人臉識(shí)別準(zhǔn)入系統(tǒng)用來識(shí)別待進(jìn)入人員的身份,此系統(tǒng)一共包括識(shí)別

4種不同的人員:獄警,小偷,送餐員,其他。下面哪種學(xué)習(xí)方法最適合此種應(yīng)用需

求:()。

A、二分類問題

B、多分類問題

C、層次聚類問題

D、k-中心點(diǎn)聚類問題

答案:B

113.Python中類型轉(zhuǎn)換是指將一種數(shù)據(jù)類型轉(zhuǎn)換為另一種數(shù)據(jù)類型。下列轉(zhuǎn)換

不正確的是。()

A、int()將任何數(shù)據(jù)類型轉(zhuǎn)換為整數(shù)類型,oct()將整數(shù)轉(zhuǎn)換為十六進(jìn)制

Bxtuple()函數(shù)用于轉(zhuǎn)換為元組,set0函數(shù)在轉(zhuǎn)換為set后返回類型。

C、Iist()函數(shù)用于將任何數(shù)據(jù)類型轉(zhuǎn)換為列表類型。

D、ict()函數(shù)用于將順序元組(鍵,值)轉(zhuǎn)換為字典。str()函數(shù)用于將整數(shù)轉(zhuǎn)換為

字符串。

答案:A

114.Logistic回歸分類器是否能對(duì)下列數(shù)據(jù)進(jìn)行完美分類?0

A\是

B、否

C、不確定

D、都不是

答案:B

115.關(guān)于ARMA、R、MA模型的功率譜,下列說法正確的是()

A、MA模型是同一個(gè)全通濾波器產(chǎn)生的

B、MA模型在極點(diǎn)接近單位圓時(shí),MA譜是一個(gè)深谷

C、AR模型在零點(diǎn)接近單位圓時(shí),AR譜是一個(gè)尖峰

D、RMA譜既有尖峰又有深谷

答案:D

116.模型庫存放訓(xùn)練出的()模型或采購來的第三方算法模型。

A、實(shí)體

B、算法

C、數(shù)據(jù)

D、對(duì)象

答案:B

117.給定三個(gè)變量X,Y,Zo(X,Y)、(Y,Z)和(X,Z)的Pearson相關(guān)性系數(shù)分別為C

1、C2和C3。現(xiàn)在X的所有值加2(即X+2),Y的全部值減2(即Y-2),Z保持不變。

那么運(yùn)算之后的(X,Y)、(Y,Z)和(X,Z)相關(guān)性系數(shù)分別為D1、D2和D3。現(xiàn)在試

問D1、D2、D3和C1、C2、C3之間的關(guān)系是什么?()

A、D1=C1,D2<C2,D3>C3

B、D1=C1,D2>C2,D3>C3

C、D1=C1,D2>C2,D3<C3

D、1=C1,D2=C2,D3=C3

答案:D

118.假設(shè)你使用log-loss函數(shù)作為評(píng)估標(biāo)準(zhǔn)。下面這些選項(xiàng),哪些是對(duì)作為評(píng)估

標(biāo)準(zhǔn)的log-loss的正確解釋()。

A、如果一個(gè)分類器對(duì)不正確的分類很自信,log-loss會(huì)嚴(yán)重的批評(píng)它。

B、對(duì)一個(gè)特別的觀察而言,分類器為正確的類別分配非常小的概率,然后對(duì)log-

Ioss的相應(yīng)分布會(huì)非常大。

C、Iog-loss越低,模型越好

D、以上都是

答案:D

119.下面關(guān)于二叉查找樹的說法正確的是0。

A、二叉查找樹,也稱有序二叉樹(orderedbinarytree),或已排序二叉樹(sorted

binarytree)

B、若任意節(jié)點(diǎn)的左子樹不空,則左子樹上所有結(jié)點(diǎn)的值均大于它的根結(jié)點(diǎn)的值。

C、若任意節(jié)點(diǎn)的右子樹不空,則右子樹上所有結(jié)點(diǎn)的值均小于它的根結(jié)點(diǎn)的值。

D、任意節(jié)點(diǎn)的左、右子樹不是二叉查找樹。

答案:A

120.查詢名字第二個(gè)字母為a的人()。

A、SELECT*FROMPersonsWHEREFirstName='%a%'

B、SELECT*FROMPersonsWHEREFirstNameLIKE'%_a%'

C、SELECT*FROMPersonsWHEREFirstNameLIKE'_a%'

D、SELECT*FROMPersonsWHEREFirstNameLIKE'_a_'

答案:C

解析:答案解析:在SQL查詢中,'LIKE'關(guān)鍵字用于在'WHERE'子句中搜索列中

的指定模式。表示任意數(shù)量的字符表示一個(gè)單一的字符。題目要求查詢

名字第二個(gè)字母為a的人,所以正確的模式應(yīng)該是即第一個(gè)字符可以是

任意字符,第二個(gè)字符必須是a,后面可以跟任意數(shù)量的字符。因此,選項(xiàng)C是

正確的答案。

121.預(yù)測分析方法分為兩大類,分別是定性分析法和()。

A、回歸分析法

B、指數(shù)平滑法

C、定量分析法

D、平均法

答案:C

122.人工智能的概念最早是由哪一位科學(xué)家提出來的()?

A、麥卡錫

B、圖林

C、馮?諾依曼

D、明斯基

答案:A

123.對(duì)于投影數(shù)據(jù)為((J2),(0),(J2))。現(xiàn)在如果在二維空間中重建,并將它們

視為原始數(shù)據(jù)點(diǎn)的重建,那么重建誤差是多少?()

A、0%

B、10%

C、30%

D、40%

答案:A

124.人工智能研究的一項(xiàng)基本內(nèi)容是機(jī)器感知。以下列()不屬于機(jī)器感知的領(lǐng)域。

A、使機(jī)器具有視覺、聽覺、觸覺、味覺、嗅覺等感知能力。

B、讓機(jī)器具有理解文字的能力。

C、使機(jī)器具有能夠獲取新知識(shí)、學(xué)習(xí)新技巧的能力。

D、使機(jī)器具有聽懂人類語言的能力

答案:C

125.在計(jì)算機(jī)外部設(shè)備和主存之間直接傳送而不是由CPU執(zhí)行程序指令進(jìn)行數(shù)

據(jù)傳送的控制方式稱為0。

A、程序查詢方式

B、中斷方式

C、并行控制方式

D、MA方式

答案:D

126.在數(shù)據(jù)庫設(shè)計(jì)的需求分析階段應(yīng)完成包括()在內(nèi)的文檔。

A、E-R圖

B、關(guān)系模式

C、數(shù)據(jù)字典和數(shù)據(jù)流圖

D、任務(wù)書和設(shè)計(jì)方案

答案:B

127.()是“一種規(guī)模大到在獲取、存儲(chǔ)、管理、分析方面大大超出了傳統(tǒng)數(shù)據(jù)庫

軟件工具能力范圍的數(shù)據(jù)集合”。

A、數(shù)值

B、數(shù)字

C、數(shù)據(jù)

D、大數(shù)據(jù)

答案:D

128.假設(shè)你在卷積神經(jīng)網(wǎng)絡(luò)的第一層中有5個(gè)卷積核,每個(gè)卷積核尺寸為7X7,

具有零填充且步幅為1。該層的輸入圖片的維度是224X224X3。那么該層輸出

的維度是多少?()

A、217x217x3

B、217x217x8

G218x218x5

D、220x220x7

答案:C

129.當(dāng)在卷積神經(jīng)網(wǎng)絡(luò)中加入池化層(poolinglayer)時(shí),變換的不變性會(huì)被保留,

是嗎?()

A、不知道

B、看情況

C、是

D、否

答案:C

130.某超市研究銷售記錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會(huì)購買尿布,這種

屬于數(shù)據(jù)挖掘的哪類問題?()。

A、關(guān)聯(lián)規(guī)則發(fā)現(xiàn)

B、聚類

C、分類

D、自然語言處理

答案:A

131.下列哪個(gè)不屬于CRF模型對(duì)于HMM和MEMM模型的優(yōu)勢()。

A、特征靈活

B、速度快

C、可容納較多上下文信息

D、全局最優(yōu)

答案:B

132.大數(shù)據(jù)的0與分布式計(jì)算能力也為人工智能提供了強(qiáng)大的儲(chǔ)存、計(jì)算支持,

大大推動(dòng)了人工智能和發(fā)展。

A、分布式儲(chǔ)存

B、大量收集

C、智能傳輸

D、自動(dòng)分析

答案:A

133.如果對(duì)相同的數(shù)據(jù)進(jìn)行邏輯回歸,將花費(fèi)更少的時(shí)間,并給出比較相似的精

度(也可能不一樣),怎么辦?假設(shè)在龐大的數(shù)據(jù)集上使用Logistic回歸模型。可

能遇到一個(gè)問題,Logistic回歸需要很長時(shí)間才能訓(xùn)練。()

A、降低學(xué)習(xí)率,減少迭代次數(shù)

B、降低學(xué)習(xí)率,增加迭代次數(shù)

C、提高學(xué)習(xí)率,增加迭代次數(shù)

D、增加學(xué)習(xí)率,減少迭代次數(shù)

答案:D

134.Python內(nèi)存池機(jī)制,下面的說法正確的是0。(1)Python提供了對(duì)內(nèi)存的垃

圾收集機(jī)制,但是它將不用的內(nèi)存放到內(nèi)存池而不是返回給操作系統(tǒng)。(2)ymall

oc機(jī)制。為了加速Python的執(zhí)行效率,Python引入了一個(gè)內(nèi)存池機(jī)制,用于管理

對(duì)小塊內(nèi)存的申請(qǐng)和釋放。⑶Python中所有大于256個(gè)字節(jié)的對(duì)象都使用pym

alloc實(shí)現(xiàn)的分配器,而小的對(duì)象則使用系統(tǒng)的malloco(4)對(duì)于Python對(duì)象

如整數(shù),浮點(diǎn)數(shù)和List,都有其獨(dú)立的私有內(nèi)存池,對(duì)象間不共享他們的內(nèi)存池。

也就是說如果你分配又釋放了大量的整數(shù),用于緩存這些整數(shù)的內(nèi)存就不能再分

配給浮點(diǎn)數(shù)。

A、1,2和4

B、3和4

C、1,2和3

D、全部正確

答案:A

135.已知一組數(shù)據(jù)的協(xié)方差矩陣P,下面關(guān)于主分量說法錯(cuò)誤的是0。

A、主分量分析的最佳準(zhǔn)則是對(duì)一組數(shù)據(jù)進(jìn)行按一組正交基分解,在只取相同數(shù)量

分量的條件下,以均方誤差計(jì)算截尾誤差最小

B、在經(jīng)主分量分解后,協(xié)方差矩陣成為對(duì)角矩陣

C、主分量分析就是K-L變換

D、主分量是通過求協(xié)方差矩陣的特征值得到

答案:C

136.下列int()函數(shù)使用,不正確的是:()。

A、int('12',16)的值為16

B、int(12,,8)的值為10。

Gint('12')的值為12

D、int('101',2)的值為5。

答案:A

137.與傳統(tǒng)數(shù)據(jù)庫中的數(shù)據(jù)相比,文本數(shù)據(jù)具有其獨(dú)特性,其包括四個(gè)方面。半結(jié)

構(gòu)化、高維、高數(shù)據(jù)量、()。

A、語言性

B、語義性

G語音性

D、結(jié)構(gòu)化

答案:B

138.以下哪種方法能最佳地適應(yīng)邏輯回歸中的數(shù)據(jù)?0

A、LeastSquareError

B、MaximumLikeIihood

C、Jaccarddistance

D、A和B

答案:B

139.作為行為規(guī)范,道德和法律的區(qū)別表現(xiàn)在()。

A、道德的作用沒有法律大

B、道德規(guī)范比法律規(guī)范含糊

C、道德和法律作用的范圍不同

D、道德和法律不能共同起作用

答案:C

140.智能搜題和智能批改都是OCR的文字識(shí)別和()的應(yīng)用。

A、書寫識(shí)別

B、手寫識(shí)別

C、字體識(shí)別

D、文字感知

答案:B

141.什么是KDD?()

A、數(shù)據(jù)挖掘與知識(shí)發(fā)現(xiàn)

B、領(lǐng)域知識(shí)發(fā)現(xiàn)

C、文檔知識(shí)發(fā)現(xiàn)

D、動(dòng)態(tài)知識(shí)發(fā)現(xiàn)

答案:A

142.下列關(guān)于python中的迭代器說法不正確的是:()。

A、迭代器是一個(gè)可以記住遍歷的位置的對(duì)象。

B、迭代器對(duì)象從集合的第一個(gè)元素開始訪問,直到所有的元素被訪問完結(jié)束。迭

代器既能往前,也能后退。

G迭代器有兩個(gè)基本的方法:iter()和next00

D、列表ls=[1,2,3,4],iter(ls)方法是創(chuàng)建迭代器對(duì)象。

答案:B

143.關(guān)于特征選擇,下列對(duì)Ridge回歸和Lasso回歸說法正確的是?0

A、Ridge回歸適用于特征選擇

BvLasso回歸適用于特征選擇

C、兩個(gè)都適用于特征選擇

D、以上說法都不對(duì)

答案:B

144.構(gòu)建一個(gè)神經(jīng)網(wǎng)絡(luò),將前一層的輸出和它自身作為輸入。下列哪一種架構(gòu)有

A、循環(huán)神經(jīng)網(wǎng)絡(luò)

B、卷積神經(jīng)網(wǎng)絡(luò)

C、限制玻爾茲曼機(jī)

D、都不是

答案:A

145.給定以下三個(gè)圖表(從左往右依次為1,2,3)、哪一個(gè)選項(xiàng)對(duì)以這三個(gè)圖表的

描述是正確的?()

A、1是tanh,2是ReLU,3是SIGMOID激活函數(shù)

B、1是SIGMOID,2是ReLU,3是tanh激活函數(shù)

C、1是ReLU,2是tanh,3是SIGMOID激活函數(shù)

D、1是tanh,2是SIGMOID,3是ReLU激活函數(shù)

答案:D

146.為了檢驗(yàn)連續(xù)變量x.y之間的線性關(guān)系,下列哪種圖最合適?()

A、散點(diǎn)圖

B、條形圖

C、直方圖

D、都不對(duì)

答案:A

147.為了解決如何模擬人類的感性思維,例如視覺理解、直覺思維、悟性等,研究

者找到一個(gè)重要的信息處理的機(jī)制是()。

A、專家系統(tǒng)

B、人工神經(jīng)網(wǎng)絡(luò)

C、模式識(shí)別

D、智能代理

答案:B

148.下圖顯示了訓(xùn)練過的3層卷積神經(jīng)網(wǎng)絡(luò)準(zhǔn)確度,與參數(shù)數(shù)量(特征核的數(shù)量)

的關(guān)系。從圖中趨勢可見,如果增加神經(jīng)網(wǎng)絡(luò)的寬度,精確度會(huì)增加到一個(gè)特定閾

值后,便開始降低。造成這一現(xiàn)象的可能原因是什么?()

(

U

E

)

mX

hm

wx

E

J

A、即使增加卷積核的數(shù)量,只有少部分的核會(huì)被用作預(yù)測

B、當(dāng)卷積核數(shù)量增加時(shí),神經(jīng)網(wǎng)絡(luò)的預(yù)測能力(Power)會(huì)降低

C、當(dāng)卷積核數(shù)量增加時(shí),它們之間的相關(guān)性增加(correlate),導(dǎo)致過擬合

D、以上都不正確

答案:C

149.下面是三個(gè)散點(diǎn)圖(A,B,C,從左到右)和手繪的邏輯回歸決策邊界。上圖中哪

一個(gè)顯示了決策邊界過度擬合訓(xùn)練數(shù)據(jù)()?

A

A、

B、

C\

D、這些都沒有

答案:C

150.在計(jì)算機(jī)中,某個(gè)圖片文件的大小1MB,指的是0。

A、1024*1024個(gè)比特(Bit)

B、1024*1024個(gè)字節(jié)(Byte)

G1000*1000個(gè)比特(Bit)

D、1000*1000個(gè)字節(jié)(Byte)

答案:B

151.建立一個(gè)模型,通過這個(gè)模型根據(jù)已知的變量值來預(yù)測其他某個(gè)變量值屬于

數(shù)據(jù)挖掘的哪一類任務(wù)?()

A、根據(jù)內(nèi)容檢索

B、建模描述

C、預(yù)測建模

D、尋找模式和規(guī)則

答案:C

152.假定你正在處理類屬特征,并且沒有查看分類變量在測試集中的分布。現(xiàn)在

你想將onehotencoding(OHE)應(yīng)用到類屬特征中。那么在訓(xùn)練集中將OHE應(yīng)用到

分類變量可能要面臨的困難是什么?0

A、分類變量所有的類別沒有全部出現(xiàn)在測試集中

B、類別的頻率分布在訓(xùn)練集和測試集是不同的

C、訓(xùn)練集和測試集通常會(huì)有一樣的分布

D、A和B都正確

答案:D

153.在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),損失函數(shù)(loss)在最初的幾個(gè)epochs時(shí)沒有下降,可能

的原因是?()

A、學(xué)習(xí)率(learningrate)太低

B、正則參數(shù)太高

C、陷入局部最小值

D、以上都有可能

答案:A

154.()是公民道德建設(shè)的核心。

A、集體主義

B、愛國主義

C、為人民服務(wù)

D、誠實(shí)守信

答案:C

155.對(duì)于神經(jīng)網(wǎng)絡(luò)的說法,下面正確的是:(D)1增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增加

測試數(shù)據(jù)集的分類錯(cuò)誤率2減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測試數(shù)據(jù)集的分類錯(cuò)

誤率3增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯(cuò)誤率

A、2

B、1和3

C、1和2

D、1

答案:D

156.下列不是SVM核函數(shù)的是:()。

A、多項(xiàng)式核函數(shù)

B、logistic核函數(shù)

C、徑向基核函數(shù)

D、Sigmoid核函數(shù)

答案:B

157.下面關(guān)于推薦系統(tǒng)的說法正確的是()。

A、個(gè)性化推薦:常以“推薦”、“猜你喜歡”、“發(fā)現(xiàn)”等形式出現(xiàn),一般放在

首頁位置

B、相關(guān)推薦:常以“相關(guān)推薦”、“看了還看”等形式出現(xiàn),一般放在內(nèi)容詳情

C、熱門推薦:基于各種數(shù)據(jù)進(jìn)行計(jì)算,得到的排行榜,支持全局排行以及分類排行

等,位置不限

D、以上都是正確的

答案:D

158.中文同義詞替換時(shí),常用到Word2Vec,以下說法錯(cuò)誤的是0。

A、Word2Vec基于概率統(tǒng)計(jì)

B、Word2Vec結(jié)果符合當(dāng)前預(yù)料環(huán)境

C、Word2Vec得到的都是語義上的同義詞

D\Word2Vec受限于訓(xùn)練語料的數(shù)量和質(zhì)量

答案:C

159.下列哪個(gè)不是人工智能的研究領(lǐng)域()。

A、機(jī)器證明

B、模式識(shí)別

C、人工生命

D、編譯原理

答案:D

160.下列哪一項(xiàng)沒有違反誠實(shí)守信的要求()。

A、保守企業(yè)秘密

B、為了牟取暴利,制造偽劣商品

C、根據(jù)服務(wù)對(duì)象來決定是否遵守承諾

D、派人打進(jìn)競爭對(duì)手內(nèi)部,增強(qiáng)競爭優(yōu)勢

答案:A

161.批規(guī)范化(BatchNormaIization)的好處都有啥?()

A、在將所有的輸入傳遞到下一層之前對(duì)其進(jìn)行歸一化(更改)

B、它將權(quán)重的歸一化平均值和標(biāo)準(zhǔn)差

C、它是一種非常有效的反向傳播(BP)方法

D、這些均不是

答案:A

162.以下幾種模型方法屬于判別式模型(口15匚M1皿1:26初℃^1)的有0。(1)混合

高斯模型⑵條件隨機(jī)場模型⑶區(qū)分度訓(xùn)練⑷隱馬爾科夫模型

A、2,3

B、3,4

C\1,4

D、1,2

答案:A

163.采用面向?qū)ο箝_發(fā)方法時(shí),對(duì)象是系統(tǒng)運(yùn)行時(shí)基本實(shí)體。以下關(guān)于對(duì)象的敘

述中,正確的是0。

A、對(duì)象只能包括數(shù)據(jù)(屬性)

B、對(duì)象只能包括操作(行為)

C、對(duì)象一定有相同的屬性和行為

D、對(duì)象通常由對(duì)象名、屬性和操作三個(gè)部分組成

答案:D

164.以下描述正確的是()。

A、SVM是這樣一個(gè)分類器,它尋找具有最小邊緣的超平面,因此它也經(jīng)常被稱為

最小邊緣分類器

B、在聚類分析當(dāng)中,簇內(nèi)的相似性越大,簇間的差別越大,聚類的效果就越差

C、在決策樹中,隨著樹中結(jié)點(diǎn)樹變得太大,即使模型的訓(xùn)練誤差還在繼續(xù)降低,

但是檢驗(yàn)誤差開始增大,這是出現(xiàn)了模型擬合不足的原因

D、聚類分析可以看作是一種非監(jiān)督的分類

答案:D

165.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,知道每一個(gè)神經(jīng)元的權(quán)重和偏差是最重要的一步。如果

知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,便可以近似任何函數(shù),但怎么獲知每個(gè)神經(jīng)的

權(quán)重和偏移呢?0

A、搜索每個(gè)可能的權(quán)重和偏差組合,直到得到最佳值

B、賦予一個(gè)初始值,然后檢查跟最佳值的差值,不斷迭代調(diào)整權(quán)重

C、隨機(jī)賦值,聽天由命

D、以上都不正確的

答案:B

166.如果線性回歸模型中的隨機(jī)誤差存在異方差性,那么參數(shù)的OLS估計(jì)量是0。

A、無偏的,有效的

B、無偏的,非有效的

G有偏的,有效的

D、有偏的,非有效的

答案:B

167.下面哪項(xiàng)操作能實(shí)現(xiàn)跟神經(jīng)網(wǎng)絡(luò)中Dropout的類似效果?()

AvBoosting

B、agging

C、Stacking

D、Mapping

答案:B

168.假設(shè)我們有一個(gè)數(shù)據(jù)集,在一個(gè)深度為6的決策樹的幫助下,它可以使用100%

的精確度被訓(xùn)練。現(xiàn)在考慮以下兩點(diǎn),并基于這兩點(diǎn)選擇正確的選項(xiàng)0。1深度

為4時(shí)將有高偏差和低方差2深度為4時(shí)將有低偏差和低方差

A、只有1

B、只有2

C、1和2

D、沒有一個(gè)

答案:A

169.下面關(guān)于炳的說法正確的是()。⑴烯的概念最早起源于物理學(xué),用于度量一

個(gè)熱力學(xué)系統(tǒng)的無序程度。在信息論里面,峭是對(duì)確定性的測量。(2)婚的英文原

文為entropy,最初由德國物理學(xué)家魯?shù)婪?克勞修斯提出,表示一個(gè)系統(tǒng)在不受

外部干擾時(shí),其內(nèi)部最不穩(wěn)定的狀態(tài)。⑶任何粒子的常態(tài)都是隨機(jī)運(yùn)動(dòng),也就是"

無序運(yùn)動(dòng)",如果讓粒子呈現(xiàn)“有序化",必須耗費(fèi)能量。所以,溫度(熱能)可以被看

作"有序化”的一種度量,而"端"可以看作是“無序化”的度量。⑷如果沒有外部能

量輸入,封閉系統(tǒng)趨向越來越混亂(炳越來越大)o比如,如果房間無人打掃,不可

能越來越干凈(有序化),只可能越來越亂(無序化)。

A、1和2

B、3和4

C、1,2和3

D、全部正確

答案:B

170.對(duì)于一個(gè)圖像識(shí)別問題(在一張照片里找出一只貓),下面哪種神經(jīng)網(wǎng)絡(luò)可以

更好地解決這個(gè)問題?()

A、循環(huán)神經(jīng)網(wǎng)絡(luò)

B、感知機(jī)

C、多層感知機(jī)

D、卷積神經(jīng)網(wǎng)絡(luò)

答案:D

171.有兩個(gè)樣本點(diǎn),第一個(gè)點(diǎn)為正樣本,它的特征向量是(0,7);第二個(gè)點(diǎn)為負(fù)樣

本,它的特征向量是(2,3),從這兩個(gè)樣本點(diǎn)組成的訓(xùn)練集構(gòu)建一個(gè)線性SVM分類

器的分類面方程是0。

A、2x+y=4

B、x+2y=5

C\x+2y=3

D\2x-y=0

答案:C

172.《公民道德建設(shè)實(shí)施綱要》指出我國職業(yè)道德建設(shè)規(guī)范是()。

A、求真務(wù)實(shí)、開拓創(chuàng)新、艱苦奮斗、服務(wù)人民、促進(jìn)發(fā)展

B、愛崗敬業(yè)、誠實(shí)守信、辦事公道、服務(wù)群眾、奉獻(xiàn)社會(huì)

C、以人為本、解放思想、實(shí)事求是、與時(shí)俱進(jìn)、促進(jìn)和諧

D、文明禮貌、勤儉節(jié)約、團(tuán)結(jié)互助、遵紀(jì)守法、開拓創(chuàng)新

答案:B

173.在k-均值算法中,以下哪個(gè)選項(xiàng)可用于獲得全局最小?()

A、嘗試為不同的質(zhì)心(centr。id)初始化運(yùn)行算法

B、調(diào)整迭代的次數(shù)

C、找到集群的最佳數(shù)量

D、以上所有

答案:D

174.假設(shè)我們使用原始的非線性可分版本的Soft-SVM優(yōu)化目標(biāo)函數(shù)。我們需要

做什么來保證得到的模型是線性可分離的?()

A、C=0

B、C=1

C\正無窮大

D、C負(fù)無窮大

答案:C

175.K-Means算法無法聚以下哪種形狀的樣本?()

A、圓形分布

B、螺旋分布

C、帶狀分布

D、凸多邊形分布

答案:B

176.將原始數(shù)據(jù)進(jìn)行集成、變換、維度規(guī)約、數(shù)值規(guī)約是在以下哪個(gè)步驟的任務(wù)?

0

A、頻繁模式挖掘

B、分類和預(yù)測

C、數(shù)據(jù)預(yù)處理

D、數(shù)據(jù)流挖掘

答案:C

177.當(dāng)數(shù)據(jù)過大以至于無法在RAM中同時(shí)處理時(shí),哪種梯度下降方法更加有效?

0

A、隨機(jī)梯度下降法(StochasticGradientDescent)

B、不知道

G整批梯度下降法(FuIIBatchGradientDescent)

D、都不是

答案:A

178.下列關(guān)于表達(dá)式的值的說法,正確的是:()

A、表達(dá)式1<2<3的值為True

B\表達(dá)式30r5的值為5

C、表達(dá)式0or5的值為0

D、表達(dá)式3and5的值為3

答案:A

179.下面有關(guān)分類算法的準(zhǔn)確率,召回率,F1值的描述,錯(cuò)誤的是?()

A、準(zhǔn)確率是檢索出相關(guān)文檔數(shù)與檢索出的文檔總數(shù)的比率,衡量的是檢索系統(tǒng)的

查準(zhǔn)率

B、召回率是指檢索出的相關(guān)文檔數(shù)和文檔庫中所有的相關(guān)文檔數(shù)的比率,衡量的

是檢索系統(tǒng)查全率

C、正確率、召回率和F值取值都在0和1之間,數(shù)值越接近0,查準(zhǔn)率或查全率

就越高

D、為了解決準(zhǔn)確率和召回率沖突問題,引入了F1分?jǐn)?shù)

答案:C

180.下面有關(guān)序列模式挖掘算法的描述,錯(cuò)誤的是?()

AxprioriAII算法和GSP算法都屬于Apriori類算法,都要產(chǎn)生大量的候選序列

B、FreeSpan算法和PrefixSpan算法不生成大量的候選序列以及不需要反復(fù)掃

描原數(shù)據(jù)庫

C\在時(shí)空的執(zhí)行效率上,FreeSpan比PrefixSpan更優(yōu)

D、和AprioriAII相比,GSP的執(zhí)行效率比較高

答案:C

181.考慮某個(gè)具體問題時(shí),你可能只有少量數(shù)據(jù)來解決這個(gè)問題。不過幸運(yùn)的是

你有一個(gè)類似問題已經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)。可以用下面哪種方法來利用這個(gè)

預(yù)先訓(xùn)練好的網(wǎng)絡(luò)?0

A、把除了最后一層外所有的層都凍住,重新訓(xùn)練最后一層

B、對(duì)新數(shù)據(jù)重新訓(xùn)練整個(gè)模型

C、只對(duì)最后幾層進(jìn)行調(diào)參(finetune)

D、對(duì)每一層模型進(jìn)行評(píng)估,選擇其中的少數(shù)來用

答案:C

182.模型庫功能要求為:模型管理包括模型()、模型刪除、版本管理、模型標(biāo)簽、

模型收藏和模型共享。

A、評(píng)估

B、導(dǎo)出

C、輸出

D、導(dǎo)入

答案:D

183.常見的生成式模型是0。

A、K近鄰、SVM、決策樹

B、感知機(jī)、線性判別分析(LDA)

C、線性回歸、傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)、邏輯回歸

D、樸素貝葉斯、隱馬爾可夫模型、高斯混合模型

答案:D

184.下列哪個(gè)函數(shù)不可以做激活函數(shù)?()

A、y=tanh(x)

B\y=sin(x)

Gy=max(x,0)

D、y=2x

答案:D

185.在t-SNE算法中,可以調(diào)整以下哪些超參數(shù)?0

A、維度數(shù)量

B、平穩(wěn)測量有效數(shù)量的鄰居

C、最大迭代次數(shù)

D、以上所有

答案:D

186.智能語音技術(shù)具體可以分為自動(dòng)語音識(shí)別、()、聲紋識(shí)別、語音分類等。

A、語音學(xué)習(xí)

B、語音分析

C、語音合成

D、語音轉(zhuǎn)寫

答案:C

187.閱讀下面的代碼,下面的選項(xiàng)中,不正確的是:()。Ideffun():2yieId13yieI

d24yieId356x=fun()7print(next(x))

A、生成器(generator)的定義與普通函數(shù)類似,生成器使用yield關(guān)鍵字生成值。

B、如果一個(gè)函數(shù)包含yield關(guān)鍵字,那么該函數(shù)將自動(dòng)成為一個(gè)生成器。

C、第6行代碼,x是一個(gè)生成器對(duì)象。

D、第7行代碼,輸出是3。

答案:D

解析:答案解析:在Python中,生成器是一種使用簡單的語法做惰性求值的迭

代器。從給出的代碼來看:A選項(xiàng)正確,生成器的定義確實(shí)與普通函數(shù)類似,只

是使用yield關(guān)鍵字來生成值。B選項(xiàng)正確,如果一個(gè)函數(shù)包含yield關(guān)鍵字,

該函數(shù)就是一個(gè)生成器。C選項(xiàng)正確,第6行代碼調(diào)用函數(shù)fun(),返回一個(gè)生

成器對(duì)象賦值給x。D選項(xiàng)不正確,第7行代碼'print(next(X))'將會(huì)輸出生成

器產(chǎn)生的第一個(gè)值,即1,而不是3。因此,選項(xiàng)D是不正確的。

188.后綴表達(dá)式“ab+cd-*"與表達(dá)式()對(duì)應(yīng)。

A、(a+b)*(c-d)

B\a+b*c-d

C\a+b*(c-d)

D、(a+b)*c-d

答案:A

189.以下哪個(gè)是判別式的模型0。

A、樸素貝葉斯

B、決策樹

C、高斯混合模型

D、文檔主題生成模型(LDA)

答案:B

190.下面選項(xiàng)中,正確的是:()。

A、語句x=(3,)執(zhí)行后x的值為3O

B、語句x=⑶執(zhí)行后x的值為(3,)。

G已知x=3和y=5,執(zhí)行語句X,y=y,x后x的值是5,y的值是3。

D、假設(shè)n為整數(shù),那么表達(dá)式n&1==n%2的值為false。

答案:C

191.在二分類問題中,當(dāng)測試集的正例和負(fù)例數(shù)量不均衡時(shí),以下評(píng)價(jià)方案哪個(gè)

是相對(duì)不合理的()(假設(shè)precision=TP/(TP+FP),recaIl=TP/(TP+FN)□)

A、ccuracy:(TP+TN)/alI

B\F-vaIue:2*recall*precision/(recaII+precision)

C、G-mean:sqrt(precision*recaII)

D、AUC:R0C曲線下面積

答案:A

192.影響基本K-均值算法的主要因素有()。1樣本輸入順序2模式相似性測度3

聚類準(zhǔn)則4初始類中心的選取

A、1,2和4

B、3和4

C、2和4

D、全部正確

答案:A

193.Python中zip函數(shù)稱為拉鏈函數(shù),入?yún)⑹强傻鷮?duì)象,語法是zip(*iterab

les),閱讀下面的代碼,輸出結(jié)果是:()°Numbers=[1,2,3]String=['one','two1,

'three']ResuIt=zip(numbers,string)Print(set(resu11))Print(Iist(resuI

t))

A、第4行代碼輸出是:{(3,1three'),(2,'two'),(1,'one'))

B、第5行代碼輸出是:[(3,'three'),(2,'two'),(1,'one')]

G第4行代碼輸出是:(3,'three'),(2,'two1),(1,'one')

D、第5行代碼輸出是:[⑶'three',2,'two1,1,'one']

答案:A

解析:'zip'函數(shù)在Python中用于將多個(gè)可迭代對(duì)象打包成一個(gè)元組的迭代器,

每個(gè)元組包含所有可迭代對(duì)象在相同位置的元素。給定的代碼中,'Numbers'和'

String'是兩

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論