人工智能基礎(chǔ)(習(xí)題卷10)_第1頁(yè)
人工智能基礎(chǔ)(習(xí)題卷10)_第2頁(yè)
人工智能基礎(chǔ)(習(xí)題卷10)_第3頁(yè)
人工智能基礎(chǔ)(習(xí)題卷10)_第4頁(yè)
人工智能基礎(chǔ)(習(xí)題卷10)_第5頁(yè)
已閱讀5頁(yè),還剩18頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

試卷科目:人工智能基礎(chǔ)人工智能基礎(chǔ)(習(xí)題卷10)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能基礎(chǔ)第1部分:?jiǎn)雾?xiàng)選擇題,共53題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.函數(shù)f(x)=x^3-3x^2-9x+k在區(qū)間[-4,4]上的最大值為10,則其最小值為()A)-10B)-71C)-15答案:B解析:[單選題]2.生物特征識(shí)別技術(shù)不包括()A)指紋識(shí)別B)虹膜識(shí)別C)體感交互D)人臉識(shí)別答案:C解析:[單選題]3.運(yùn)行代碼后,最后一行輸出的是:forlineinrange(3):print(line)A)2B)1C)3D)0答案:A解析:[單選題]4.半監(jiān)督支持向量機(jī)中最著名的是TSVM(TransductiveSupportVectorMachine)。與標(biāo)準(zhǔn)SVM一樣,TSVM也是針對(duì)(___)問(wèn)題的學(xué)習(xí)方法?A)分類(lèi)B)回歸C)聚類(lèi)D)二分類(lèi)答案:D解析:[單選題]5.智能變電站中,變電站監(jiān)控系統(tǒng)的結(jié)構(gòu)劃分為()。A)兩層B)三層C)四層D)一層答案:B解析:[單選題]6.以下哪些算法是基于規(guī)則的分類(lèi)器()A)C4.5B)KNNC)NaiveBayesD)ANN答案:A解析:[單選題]7.人工智能誕生于什么地方?()A)達(dá)特茅斯B)倫敦C)紐約D)拉斯維加斯答案:A解析:[單選題]8.考慮以下問(wèn)題:假設(shè)我們有一個(gè)5層的神經(jīng)網(wǎng)絡(luò),這個(gè)神經(jīng)網(wǎng)絡(luò)在使用一個(gè)4GB顯存顯卡時(shí)需要花費(fèi)3個(gè)小時(shí)來(lái)完成訓(xùn)練。而在測(cè)試過(guò)程中,單個(gè)數(shù)據(jù)需要花費(fèi)2秒的時(shí)間。如果我們現(xiàn)在把架構(gòu)變換一下,當(dāng)評(píng)分是0.2和0.3時(shí),分別在第2層和第4層添加Dropout,那么新架構(gòu)的測(cè)試所用時(shí)間會(huì)變?yōu)槎嗌伲浚ǎ〢)少于2sB)大于2sC)仍是4sD)說(shuō)不準(zhǔn)答案:C解析:[單選題]9.中央管理調(diào)度系統(tǒng)與AGV使用()進(jìn)行通訊。A)數(shù)據(jù)網(wǎng)絡(luò)B)有線(xiàn)電臺(tái)C)無(wú)線(xiàn)通信D)以上都不是答案:D解析:[單選題]10.正常人的心電圖信號(hào)是()。A)數(shù)字信號(hào)B)離散信號(hào)C)模擬信號(hào)D)隨機(jī)信號(hào)答案:C解析:[單選題]11.混淆矩陣中TP=16,FP=12,FN=8,TN=4,精確率是()。A)1212122022年1月4日B)1212122022年1月2日C)1212122022年4月7日D)1212122022年2月3日答案:C解析:根據(jù)精確率計(jì)算公式可得。[單選題]12.()是指允許點(diǎn)云在一條軌跡中掃過(guò)模型表面的面積。A)點(diǎn)云碰撞個(gè)數(shù)閾值B)碰撞面積閾值C)點(diǎn)云精度D)點(diǎn)云分辨率答案:A解析:[單選題]13.以下選項(xiàng)不是聚類(lèi)算法的是()A)分層聚類(lèi)B)K平均值聚類(lèi)C)兩步聚類(lèi)D)離散聚類(lèi)答案:D解析:[單選題]14.從給定的句子、段落中識(shí)別人名、地名、機(jī)構(gòu)名、專(zhuān)有名詞的過(guò)程稱(chēng)為?A)詞干提取B)停用詞C)詞形還原D)命名實(shí)體識(shí)別答案:D解析:命名實(shí)體識(shí)別,是指識(shí)別文本中具有特定意義的實(shí)體,主要包括人名、地名、機(jī)構(gòu)名、專(zhuān)有名詞等[單選題]15.專(zhuān)家系統(tǒng)是基于()的系統(tǒng)。A)數(shù)據(jù)B)控制C)知識(shí)D)推理答案:C解析:[單選題]16.()是學(xué)習(xí)系統(tǒng)應(yīng)達(dá)到的目標(biāo)。A)適當(dāng)?shù)膶W(xué)習(xí)環(huán)境B)提高系統(tǒng)的性能C)求解問(wèn)題D)一定的學(xué)習(xí)能力答案:B解析:[單選題]17.優(yōu)化電網(wǎng)資源中臺(tái),應(yīng)建設(shè)電網(wǎng)資產(chǎn).電網(wǎng)資源.電網(wǎng)圖形等()大共享服務(wù)中心。A)6B)8C)10D)12答案:D解析:[單選題]18.隨機(jī)森林中的隨機(jī)是指()。A)隨便構(gòu)建樹(shù)模B)隨機(jī)選擇一個(gè)樹(shù)模型C)隨機(jī)選擇多個(gè)樹(shù)模型D)在構(gòu)建每個(gè)樹(shù)模型時(shí)隨機(jī)選擇樣本和特征答案:D解析:隨機(jī)森林里的隨機(jī)包含的意思是樣本隨機(jī)、特征隨機(jī)、參數(shù)隨機(jī)、模型隨機(jī)(ID3,C4.5)。[單選題]19.在k近鄰學(xué)習(xí)算法中,隨著人的增加,上界將逐漸降低,當(dāng)上區(qū)域無(wú)窮大時(shí),上界和下界碰到一起,k近鄰法就達(dá)到了()。A)貝葉斯錯(cuò)誤率B)漸進(jìn)錯(cuò)誤率C)最優(yōu)值D)上界答案:A解析:[單選題]20.()是知識(shí)圖譜的一種通用表示方法。A)圖B)樹(shù)C)三元組D)棧答案:C解析:[單選題]21.采用顯性和隱性?xún)蓚€(gè)染色體同時(shí)進(jìn)行進(jìn)化,提供了一種記憶以前有用的基因塊的功能的遺傳算法是()。A)雙倍體遺傳算法B)雙種群遺傳算法C)自適應(yīng)遺傳算法D)混合遺傳算法答案:A解析:[單選題]22.()是技能獲取的過(guò)程。A)環(huán)境B)學(xué)習(xí)C)評(píng)價(jià)D)知識(shí)庫(kù)答案:B解析:[單選題]23.()指碰撞檢測(cè)時(shí),點(diǎn)云體素立方體邊長(zhǎng),可簡(jiǎn)單理解為點(diǎn)云膨脹距離。A)點(diǎn)云精度B)點(diǎn)距C)點(diǎn)云分辨率D)相機(jī)分辨率答案:A解析:[單選題]24.主要使用的行為決策算法有()A)基于神經(jīng)網(wǎng)絡(luò)B)基于規(guī)則C)混合路線(xiàn)D)以上都是答案:D解析:[單選題]25.推進(jìn)數(shù)字化表計(jì).移動(dòng)終端.巡檢機(jī)器人.無(wú)人機(jī).可穿戴設(shè)備.物聯(lián)終端.().FRID電子標(biāo)簽等關(guān)鍵技術(shù)裝備在班組的應(yīng)用,減少重復(fù)性勞動(dòng)。A)賦碼?ID?B)實(shí)物?ID?C)物碼?ID?D)實(shí)名?ID?答案:B解析:[單選題]26.()在搜索有大量分支的狀態(tài)空間時(shí)有相當(dāng)高的效率。A)深度優(yōu)先搜索B)寬度優(yōu)先搜索C)最好優(yōu)先搜索D)正向搜索答案:A解析:[單選題]27.機(jī)器學(xué)習(xí)的三要素為()。①數(shù)據(jù)②算法③模型④策略A)①③B)②③④C)①②④D)①②③④答案:B解析:[單選題]28.在多元線(xiàn)性回歸模型中,若某個(gè)解釋變量對(duì)其余解釋變量的判定系數(shù)接近于1,則表明模型中存在()A)異方差B)序列相關(guān)C)多重共線(xiàn)性D)高度擬合優(yōu)度答案:C解析:[單選題]29.給定訓(xùn)練樣例集,設(shè)法將樣例投影到一條直線(xiàn)上,使得同類(lèi)樣例的投影點(diǎn)盡可能接近、異類(lèi)樣例的投影點(diǎn)盡可能遠(yuǎn)離,這說(shuō)的是()算法。A)PCAB)SVMC)K-meansD)LDA答案:D解析:[單選題]30.下列哪個(gè)不是ROS的特點(diǎn)()。A)開(kāi)源B)強(qiáng)實(shí)時(shí)性C)分布式架構(gòu)D)模塊化答案:B解析:[單選題]31.mapreduce計(jì)算模型適用于哪種任務(wù)A)多線(xiàn)程處理B)有關(guān)聯(lián)的行處理C)批處理D)實(shí)時(shí)數(shù)據(jù)變化處理答案:C解析:[單選題]32.機(jī)器學(xué)習(xí)是()研究發(fā)展到一定階段的必然產(chǎn)物。A)深度學(xué)習(xí)B)人工智能C)神經(jīng)網(wǎng)絡(luò)D)計(jì)算機(jī)工程答案:B解析:機(jī)器學(xué)習(xí)是人工智能研究發(fā)展到一定階段的必然產(chǎn)物。[單選題]33.關(guān)于要研究的具體情況或個(gè)別事實(shí)的判斷是()。A)大前提B)小前提C)知識(shí)D)結(jié)論答案:B解析:[單選題]34.()是利用樣本的實(shí)際資料計(jì)算統(tǒng)計(jì)量的取值,并引來(lái)以檢驗(yàn)事先對(duì)總體某些數(shù)量特征的假設(shè)是否可信作為決策取舍依據(jù)的一種統(tǒng)計(jì)分析方法。A)假設(shè)檢驗(yàn)B)邏輯分析C)方差分析D)回歸分析答案:A解析:假設(shè)檢驗(yàn)又稱(chēng)統(tǒng)計(jì)假設(shè)檢驗(yàn),是用來(lái)判斷樣本與樣本、樣本與總體的差異是由抽樣誤差引起還是本質(zhì)差別造成的統(tǒng)計(jì)推斷方法。其基本原理是先對(duì)總體的特征做出某種假設(shè),然后通過(guò)抽樣研究的統(tǒng)計(jì)推理,對(duì)此假設(shè)應(yīng)該被拒絕還是接受做出推斷。[單選題]35.以下哪個(gè)不屬于機(jī)器學(xué)習(xí)主要研究問(wèn)題()。A)學(xué)習(xí)機(jī)理B)學(xué)習(xí)方法C)學(xué)習(xí)環(huán)境D)學(xué)習(xí)系統(tǒng)答案:C解析:[單選題]36.熵是為消除不確定性所需要獲得的信息量,投擲均勻正六面體骰子的熵是:A)1比特B)2.6比特C)3.2比特D)3.8比特答案:B解析:[單選題]37.神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元(Neuron)組成,每個(gè)神經(jīng)元接受一個(gè)輸入,對(duì)輸入進(jìn)行處理后給出一個(gè)輸出。請(qǐng)問(wèn)下列關(guān)于神經(jīng)元的描述中,哪一項(xiàng)是正確的?A)每個(gè)神經(jīng)元可以有一個(gè)輸入和一個(gè)輸出B)每個(gè)神經(jīng)元可以有多個(gè)輸入和一個(gè)輸出C)每個(gè)神經(jīng)元可以有多個(gè)輸入和多個(gè)輸出D)上述都正確答案:D解析:每個(gè)神經(jīng)元可以有一個(gè)或多個(gè)輸入,和一個(gè)或多個(gè)輸出。如圖所示的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中,隱藏層的每一個(gè)神經(jīng)元都是多輸入多輸出。若將輸出層改為一個(gè)神經(jīng)元,則隱藏層每個(gè)神經(jīng)元都是一個(gè)輸出;若將輸入層改為一個(gè)神經(jīng)元,則隱藏層每個(gè)神經(jīng)元都是一個(gè)輸入。[單選題]38.數(shù)據(jù)分析常用包pandas的函數(shù)to_datetime可以將字符串轉(zhuǎn)換為時(shí)間戳,現(xiàn)需要將?20220601?轉(zhuǎn)換為時(shí)間戳,請(qǐng)問(wèn)下列哪項(xiàng)語(yǔ)句可以實(shí)現(xiàn)該項(xiàng)需求A)pd.to_datetime('20220601',format='%Y%m%d')B)pd.to_datetime('20220601',format='%Y%M%d')C)pd.to_datetime('20220601',format='%Y%m%D')D)pd.to_datetime('20220601',format='%Y%M%D')答案:A解析:pd.to_datetime基本用法,注意日期格式'%Y%m%d,大小寫(xiě)不能寫(xiě)錯(cuò)[單選題]39.以下不屬于監(jiān)督學(xué)習(xí)的算法是A)k近鄰B)樸素貝葉斯C)支持向量機(jī)D)DBSCAN答案:D解析:[單選題]40.在神經(jīng)網(wǎng)絡(luò)中,以下哪種技術(shù)用于解決過(guò)擬合?()A)DropoutB)正則化C)批規(guī)范化D)所有答案:D解析:[單選題]41.假設(shè)屬性income的最大最小值分別是12000元和98000元。利用最大最小規(guī)范化的方法將屬性的值映射到0至1的范圍內(nèi)。對(duì)屬性income的73600元將被轉(zhuǎn)化為()A)0.821B)1.224C)1.458D)0.716答案:D解析:[單選題]42.通過(guò)一組符號(hào)及其組合來(lái)描述事物的是()A)數(shù)據(jù)B)信息C)知識(shí)D)文字答案:A解析:[單選題]43.從網(wǎng)絡(luò)的原理上來(lái)看,結(jié)構(gòu)最復(fù)雜的神經(jīng)網(wǎng)絡(luò)是()A)卷積神經(jīng)網(wǎng)絡(luò)B)長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)C)GRUD)BP神經(jīng)網(wǎng)絡(luò)答案:B解析:[單選題]44.關(guān)于Boltzmann描述錯(cuò)誤的是(___)A)基于能量的模型;B)優(yōu)化目標(biāo)函數(shù)為最小化能力函數(shù);C)分為顯層和隱層;D)神經(jīng)元都是數(shù)值型;答案:D解析:神經(jīng)元是布爾型的[單選題]45.以下關(guān)于Bagging(裝袋法)的說(shuō)法不正確的是A)能提升機(jī)器學(xué)習(xí)算法的穩(wěn)定性和準(zhǔn)確性,但難以避免overfittingB)Bagging(裝袋法)是一個(gè)統(tǒng)計(jì)重采樣的技術(shù),它的基礎(chǔ)是BootstrapC)主要通過(guò)有放回抽樣)來(lái)生成多個(gè)版本的預(yù)測(cè)分類(lèi)器,然后把這些分類(lèi)器進(jìn)行組合D)進(jìn)行重復(fù)的隨機(jī)采樣所獲得的樣本可以得到?jīng)]有或者含有較少的噪聲數(shù)據(jù)答案:A解析:[單選題]46.主要是基于謂詞邏輯,可以作為描述專(zhuān)家系統(tǒng)、數(shù)據(jù)庫(kù)、多智能體的知識(shí)表示工具的語(yǔ)言,稱(chēng)為()A)知識(shí)查詢(xún)操縱語(yǔ)言B)統(tǒng)一建模語(yǔ)言C)知識(shí)交換格式語(yǔ)言D)結(jié)構(gòu)化查詢(xún)語(yǔ)言答案:C解析:[單選題]47.()是配電物聯(lián)網(wǎng)建設(shè)的基礎(chǔ),是實(shí)現(xiàn)配電物聯(lián)網(wǎng)設(shè)備即插即用.互聯(lián)互通.統(tǒng)一管理的關(guān)鍵。A)統(tǒng)一標(biāo)識(shí)體系B)統(tǒng)一秘鑰體系C)統(tǒng)一安全監(jiān)測(cè)D)統(tǒng)一標(biāo)準(zhǔn)體系答案:A解析:[單選題]48.蒙特卡羅強(qiáng)化學(xué)習(xí)算法的本質(zhì),是通過(guò)多次嘗試后求平均來(lái)作為期望累計(jì)獎(jiǎng)賞的金絲,但它在求平均時(shí)是采用哪種方式進(jìn)行?A)逐一式B)循環(huán)式C)分組式D)批處理答案:D解析:蒙特卡羅強(qiáng)化學(xué)習(xí)是在一個(gè)完整的采樣軌跡完成后再對(duì)所有的狀態(tài)-動(dòng)作對(duì)進(jìn)行更新,屬于?批處理式?[單選題]49.以下哪個(gè)不是文本向量化的常用方法?A)EMB)CBOWC)BDOWD)DM答案:A解析:[單選題]50.深度優(yōu)先搜索和()是狀態(tài)空間最基本的搜索策略。A)正向搜索B)逆向搜索C)寬度優(yōu)先搜索D)目的搜索答案:C解析:第2部分:多項(xiàng)選擇題,共18題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]51.Pig說(shuō)法正確的是()。A)彌補(bǔ)MapReduce編程復(fù)雜性B)封裝MapReduce處理過(guò)程C)PigLatin是一種數(shù)據(jù)分析語(yǔ)言D)適用于并行處理答案:ABCD解析:Pig建立在MapReduce之上,主要目的是彌補(bǔ)MapReduce編程的復(fù)雜性;Pig較好地封裝了MapReduce的處理過(guò)程;PigLatin是數(shù)據(jù)分析的描述語(yǔ)言;Pig程序的結(jié)構(gòu)適合于并行處理。[多選題]52.目前集成樹(shù)的產(chǎn)生方法大致可以分為兩類(lèi)。以下哪些算法屬于個(gè)體分類(lèi)樹(shù)之間不存在強(qiáng)依賴(lài)、可同時(shí)生成的并行化方法這一類(lèi)?A)BaggingB)BoostingC)隨機(jī)森林D)AdaBoost答案:AC解析:[多選題]53.Hadoop的HDFS是一種分布式文件系統(tǒng),適合以下哪種場(chǎng)景的數(shù)據(jù)存儲(chǔ)和管理()。A)大量小文件存儲(chǔ)B)高容錯(cuò)、高呑吐量C)低延遲讀取D)流式數(shù)據(jù)訪(fǎng)問(wèn)答案:BD解析:HDFS不適合小文件存儲(chǔ),HDFS的讀取操作相比于傳統(tǒng)的數(shù)據(jù)庫(kù)延遲較高,不適合低延遲讀取。[多選題]54.假設(shè)有2個(gè)集合set1={'name1','name2','name4'}和set2={'name2','name3','name5'},則set1.symmetric_difference(set2)的返回值是:___________set1.difference(set2)的返回值是_______A){'name1','name2','name4'}B){'name1','name4'}C){'name1','name2','name3','name4','name5'}D){'name1','name3','name4','name5'}答案:BD解析:[多選題]55.廣義不確定性可分為()A)粗糙性B)模糊性C)不完全性D)時(shí)變性答案:BC解析:[多選題]56.一般說(shuō)來(lái),人工智能技術(shù)包括()。A)深度學(xué)習(xí)、機(jī)器學(xué)習(xí)B)計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理C)人機(jī)交互、生物信息技術(shù)、智能芯片D)虛擬現(xiàn)實(shí)/增強(qiáng)現(xiàn)實(shí)、機(jī)器人技術(shù)答案:ABCD解析:[多選題]57.深度卷積網(wǎng)絡(luò)的結(jié)構(gòu)中,通常有多個(gè)順序連接的層,下面描述正確的有A)池化層主要用于降低特征圖的分辨率B)通常在卷積層之后會(huì)增加池化層,有時(shí)卷積層后面也可能不跟池化層C)深度卷積網(wǎng)絡(luò)中,卷積層是必須的,但是全連接層可有可無(wú)D)非線(xiàn)性激活層可以完成非線(xiàn)性變換答案:ABD解析:[多選題]58.Spark組件包含哪兩個(gè)算子()。A)MapB)ActionC)TransformationD)Reduce答案:BC解析:Spark針對(duì)RDD提供了多種基礎(chǔ)操作,可以大致分為Action和Transfbrmation兩種。[多選題]59.變量選擇是用來(lái)選擇最好的判別器子集,如果要考慮模型效率,我們應(yīng)該做哪些變量選擇的考慮?()A)多個(gè)變量是否有相同的功能B)模型是否具有解釋性C)特征是否攜帶有效信息D)交叉驗(yàn)證答案:ACD解析:[多選題]60.機(jī)器學(xué)習(xí)的主要應(yīng)用領(lǐng)域包括?A)圖像識(shí)別B)認(rèn)知模擬C)規(guī)劃問(wèn)題求解D)數(shù)據(jù)挖掘答案:ABCD解析:[多選題]61.前饋神經(jīng)網(wǎng)絡(luò)由()、()、()構(gòu)成?A)輸入層B)隱藏層C)中間層D)輸出層答案:ABD解析:[多選題]62.影響聚類(lèi)算法結(jié)果的主要因素有()A)已知類(lèi)別的樣本質(zhì)量B)分類(lèi)準(zhǔn)則C)特征選取D)模式相似性測(cè)度答案:BCD解析:[多選題]63.文本挖掘的工具有()A)SPPTextMiningB)IBMDB2intelligentMinerC)SASTextMinerD)SPSSTextMining答案:BCD解析:[多選題]64.以下哪個(gè)聚類(lèi)算法屬于基于網(wǎng)格的聚類(lèi)算法()A)STINGB)WaveClusterC)MAFIAD)BIRCH答案:ABC解析:[多選題]65.關(guān)于CAP理論說(shuō)法正確的是()。A)一個(gè)分布式系統(tǒng)不能同時(shí)滿(mǎn)足一致性、可用性和分區(qū)容錯(cuò)性等需求B)一致性主要指強(qiáng)一致性C)一致性、可用性和分區(qū)容錯(cuò)性中的任何兩個(gè)特征的保證(爭(zhēng)取)可能導(dǎo)致另一個(gè)D)可用性指每個(gè)操作總是在?給定時(shí)間?之內(nèi)得到返回?所需要的結(jié)果?答案:ABCD解析:CAP理論認(rèn)為,一個(gè)分布式系統(tǒng)不能同時(shí)滿(mǎn)足一致性(C。nsistency)、可用性(Availability)和分區(qū)容錯(cuò)性(partitionT。lerance)等需求,而最多只能同時(shí)滿(mǎn)足其中的兩個(gè)特征。CAP理論告訴我們,數(shù)據(jù)管理不一定是理想的致性、可用性和分區(qū)容錯(cuò)性中的任何兩個(gè)特征的保證(爭(zhēng)取)可能導(dǎo)致另一個(gè)特征的損失(放棄)。[多選題]66.常見(jiàn)的MRC任務(wù)可以分為四種類(lèi)型:()。A)完形填空B)多項(xiàng)選擇C)片段抽取D)自由回答答案:ABCD解析:[多選題]67.關(guān)于One-Hot編碼說(shuō)法正確的是()A)One-Hot編碼將包含的k個(gè)取值的離散型特征轉(zhuǎn)換為K個(gè)二元特征B)One-Hot編碼不會(huì)給名義型特征的取值人為地引入次序關(guān)系C)One-Hot會(huì)使特征維度顯著增多D)One-Hot會(huì)不會(huì)增加特征之間的相關(guān)性答案:ABC解析:[多選題]68.()是構(gòu)成推理的基本要素。A)經(jīng)驗(yàn)B)已知事實(shí)C)知識(shí)D)條件E)結(jié)論答案:BC解析:第3部分:判斷題,共26題,請(qǐng)判斷題目是否正確。[判斷題]69.翻譯機(jī)器在進(jìn)行翻譯時(shí)會(huì)考慮到用戶(hù)的文化背景()A)正確B)錯(cuò)誤答案:錯(cuò)解析:不會(huì)[判斷題]70.大數(shù)據(jù)會(huì)帶來(lái)機(jī)器智能,提升計(jì)算機(jī)的智能程度,但它是永遠(yuǎn)不會(huì)超過(guò)人類(lèi)的智能A)正確B)錯(cuò)誤答案:錯(cuò)解析:錯(cuò)誤[判斷題]71.人工智能解決的是資源的配置問(wèn)題而非資源的來(lái)源問(wèn)題()A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]72.大數(shù)據(jù)需要云計(jì)算,大數(shù)據(jù)就等于云計(jì)算建設(shè)。A)正確B)錯(cuò)誤答案:錯(cuò)解析:云計(jì)算作為計(jì)算資源的底層,支撐著上層的大數(shù)據(jù)處理。本質(zhì)上講,云計(jì)算強(qiáng)調(diào)的是計(jì)算能力;而大數(shù)據(jù)強(qiáng)調(diào)的是處理、計(jì)算的對(duì)象。二者并不是孤立存在的,而是相互關(guān)聯(lián)的。云計(jì)算中的重要組成部分既是基礎(chǔ)設(shè)施還是存儲(chǔ)設(shè)備;大數(shù)據(jù)提供給用戶(hù)的服務(wù)需要對(duì)數(shù)據(jù)進(jìn)行處理,主要落腳在對(duì)數(shù)據(jù)的加工上。因此,云計(jì)算與大數(shù)據(jù)兩者密不可分,但不等同。錯(cuò)誤[判斷題]73.Word2vec模型是一種用于給文本目標(biāo)創(chuàng)建矢量標(biāo)記的機(jī)器學(xué)習(xí)模型。對(duì)于Word2vec,它包含多個(gè)深度神經(jīng)網(wǎng)絡(luò)。A)正確B)錯(cuò)誤答案:錯(cuò)解析:0[判斷題]74.大量的產(chǎn)生式規(guī)則容易引起組合爆炸。()A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]75.語(yǔ)音合成技術(shù)是將文本狀態(tài)的文字信息轉(zhuǎn)化為可聽(tīng)的聲音信息,相當(dāng)于給機(jī)器裝上了人工的?嘴巴?A)正確B)錯(cuò)誤答案:對(duì)解析:語(yǔ)音合成,又稱(chēng)文語(yǔ)轉(zhuǎn)換(TexttoSpeech)技術(shù),能將任意文字信息實(shí)時(shí)轉(zhuǎn)化為標(biāo)準(zhǔn)流暢的語(yǔ)音朗讀出來(lái),相當(dāng)于給機(jī)器裝上了人工嘴巴[判斷題]76.人工智能技術(shù)可提升網(wǎng)絡(luò)攻擊的智能化水平,進(jìn)而實(shí)施數(shù)據(jù)智能竊取。A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]77.LeNet5網(wǎng)絡(luò)最初是為了識(shí)別支票上面的手寫(xiě)數(shù)字而設(shè)計(jì)的。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]78.產(chǎn)生式的結(jié)論又稱(chēng)為前件或左部。()A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]79.邏輯回歸是有監(jiān)督學(xué)習(xí)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]80.在機(jī)器學(xué)習(xí)中,采用信息熵可以解決決策樹(shù)問(wèn)題。A)正確B)錯(cuò)誤答案:對(duì)解析:0[判斷題]81.僅個(gè)體變?cè)涣炕闹^詞稱(chēng)為一階謂詞。A)正確B)錯(cuò)誤C)錯(cuò)誤答案:對(duì)解析:[判斷題]82.當(dāng)前人工智能的研究更多地受到科學(xué)研究的推動(dòng)而非商業(yè)的推動(dòng)()A)正確B)錯(cuò)誤答案:錯(cuò)解析:更多的是商業(yè)的推動(dòng)[判斷題]83.算法模型應(yīng)支持以部署方式進(jìn)行應(yīng)用,部署方式應(yīng)支持容器部署,宜支持模型文件部署。A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]84.誤差逆?zhèn)鞑ニ惴?BP)僅可用于多層前饋神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)算法A)正確B)錯(cuò)誤答案:錯(cuò)解析:BP算法不僅可用于多層前饋神經(jīng)網(wǎng)絡(luò),還可用于其他類(lèi)型的神經(jīng)網(wǎng)絡(luò).[判斷題]85.在知識(shí)圖譜里,通常用?實(shí)體?來(lái)表示圖中的節(jié)點(diǎn),用?邊?來(lái)表達(dá)圖中的"關(guān)系"。()A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]86.()簡(jiǎn)單反射型智能體是基于效用的智能體。A)正確B)錯(cuò)誤答案:錯(cuò)解析:0[判斷題]87.利用先驗(yàn)原理可以幫助減少頻繁項(xiàng)集產(chǎn)生時(shí)需要探查的候選項(xiàng)個(gè)數(shù)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]88.分類(lèi)任務(wù)是預(yù)測(cè)連續(xù)值A(chǔ))正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]89.雙點(diǎn)信息由兩比特表示的監(jiān)視信息,兩比特的不同組合表示運(yùn)行設(shè)備的確定和不確定狀態(tài),?01?、?11??10?均代表確定狀態(tài)。A)正

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論