人工智能深度學習技術練習(習題卷2)_第1頁
人工智能深度學習技術練習(習題卷2)_第2頁
人工智能深度學習技術練習(習題卷2)_第3頁
人工智能深度學習技術練習(習題卷2)_第4頁
人工智能深度學習技術練習(習題卷2)_第5頁
已閱讀5頁,還剩53頁未讀 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

試卷科目:人工智能深度學習技術練習人工智能深度學習技術練習(習題卷2)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能深度學習技術練習第1部分:單項選擇題,共132題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.在h_fc1=tf.nn.relu(tf.matmul(h_flat,W_fc1)+b_fc1)操作,b_fc1是A)對圖像池化B)偏置項C)激活函數D)平均答案:B解析:[單選題]2.(euclideanmetric歐幾里得度量)是一個通常采用的距離定義,在二維和三維空間中的歐氏距離就是兩點之間的實際()。A)誤差B)線段C)距離D)坐標答案:C解析:[單選題]3.下面哪項操作能實現跟神經網絡中Dropout的類似效果?A)BoostingB)BaggingC)StackingD)Mapping答案:B解析:[單選題]4.()和tf.multiply用法一致,功能是實現x和y的element-wise方式的相乘,也就是所有點對應相乘。A)np.multiplyB)tf.Session()C)tf.mul()D)tf.Graph()答案:A解析:[單選題]5.全連接網絡對一個樣本做一次forward,RNN對一個樣本做()次forwardA)1B)多C)2D)3答案:B解析:[單選題]6.關于降維算法,下列說法錯誤的是()。A)PCA是有監督學習算法B)ICA能夠使數據中的的分量最大化獨立,而PCA不能C)LDA是有監督學習算法D)LDA降維后,同類別的數據分布更為密集答案:A解析:難易程度:中題型:[單選題]7.下列哪一項在神經網絡中引入了非線性?()A)隨機梯度下降B)修正線性單元(ReLU)C)卷積函數D)以上都不正確答案:B解析:[單選題]8.下列哪一項在神經網絡中引入了非線性?A)隨機梯度下降B)激活函數ReLUC)卷積函數D)以上都不正確答案:B解析:[單選題]9.特征臉方法利用()進行降維和提取特征A)次分量分析B)主分量分析C)主次分量分析D)矢量分析答案:B解析:[單選題]10.關于結構化程序設計方法原則的描述,以下選項中錯誤的是()。A)自頂向下B)多態繼承C)逐步求精D)模塊化答案:B解析:難易程度:易題型:[單選題]11.如果使用的學習率太大,會導致A)網絡收斂的快B)網絡收斂的慢C)網絡無法收斂D)不確定答案:C解析:[單選題]12.雙曲正切函數指的是那一個函數?A)Sigmoid函數B)tanh函數C)ReLUD)leakyReLU答案:B解析:[單選題]13.Sequential模型方法中的compile函數中的參數optimizer是指()A)目標函數B)定標量系數C)優化器D)模型評估標準答案:C解析:[單選題]14.聲明1:可以通過將所有權重初始化為0來訓練網絡。聲明2:可以通過將偏差初始化為0來很好地訓練網絡以上哪些陳述是真實的?A)1對2錯B)1錯2對C)1和2都對D)1和2都錯答案:B解析:[單選題]15.卷積神經網絡中每層卷積層(Convolutionallayer)由若干卷積單元組成,每個卷積單元的參數都是通過反向傳播算法最佳化得到,其作用是()A)增強圖像B)簡化圖像C)特征提取D)圖像處理答案:C解析:[單選題]16.考慮某個具體問題時,你可能只有少量數據來解決這個問題。不過幸運的是你有一個類似問題已經預先訓練好的神經網絡。可以用下面哪種方法來利用這個預先訓練好的網絡?A)除了最一層外所有的層都凍結,重新訓練最后一層B)據重新訓練模型C)只對最后幾層進行調參(finetune)D)一進行選數用答案:C解析:[單選題]17.異步數據讀取是指()。A)數據讀取與模型訓練串行B)數據讀取和模型訓練并行C)數據讀取和模型訓練交互D)加快了數據讀取速度答案:B解析:難易程度:易題型:[單選題]18.圖像特征經過幾個卷積后,特征信號:A)減弱B)不變C)增強D)都有可能答案:D解析:[單選題]19.深度學習元年是()年A)2016B)2006C)2008D)2022答案:B解析:[單選題]20.Tf定義一個標量變量X,其語句是A)X=tf.variable(2.0,shape=[1,2])B)X=tf.Variable(2.0,dtype=tf.float32)C)X=tf.variable(2.0,shape=[1,2])D)X=tf.constant(2.0,btype=tf.float32)答案:B解析:[單選題]21.按以下步驟繪圖,會出現錯誤的是()。A)創建畫布B)創建畫布C)創建畫布D)繪制圖形答案:A解析:難易程度:中題型:[單選題]22.解決回歸問題的神經網路一般有()個輸出。A)1B)2C)根據具體生產環境確定D)以上都不對答案:A解析:[單選題]23.下面哪一項不能解決模型過擬合的問題?()A)調小模型復雜度,使其適合自己訓練集的數量級(縮小寬度和減小深度)B)dataaugmentationC)regularizationD)添加多項式項答案:D解析:[單選題]24.keras中負責損失處理的庫是A)layersB)lossC)optimisD)rnn答案:B解析:[單選題]25.能消除overfitting過擬合的方法是那一個?A)線性化B)非線性化C)歸一化D)定義dropout答案:D解析:[單選題]26.一個數據集中有3萬條數據,關于數據集分配哪一項說法正確:A)訓練集數據可以分配1萬條B)測試集數據可以分配1000條C)可以不設置訓練集D)可以不設置驗證集答案:D解析:[單選題]27.在構建一一個神經網絡時,batchsize通常會選擇2的次方,比如256和512。這是為什么.呢?()A)當內存使用最優時這可以方便神經網絡并行化B)當用偶數是梯度下降優化效果最好C)這些原因都不對.D)當不用偶數時,損失值會很奇怪。答案:A解析:[單選題]28.以下的序列數據中,屬于一對多(一個輸入,多個輸出)的關系是哪個?A)音樂生成B)情感分類C)機器翻譯D)DNA序列分析答案:A解析:[單選題]29.請判斷?在建立Session前,TensorFlow并未執行任何計算?這句話是否正確。A)錯誤B)正確C)我不知道D)可能正確答案:A解析:[單選題]30.Batch歸一化的特點不包括A)使參數搜索問題變得容易B)使神經網絡對超參數的選擇更加穩定C)超參數的范圍更加龐大D)僅作用于輸入層答案:D解析:[單選題]31.RNN網絡的特點是:A)有多少個時間步,就有多少個RNN單元B)不管有多少時間步,都是用一個RNN神經單元處理C)RNN內部使用relu激活D)RNN可以解決梯度消失問題答案:B解析:[單選題]32.繪制直方圖的命令是()。A)plt.bar()B)plt.histC)plt.pieD)plt.scatter答案:A解析:難易程度:易題型:[單選題]33.神經網絡中超參數的調試中最重要的參數是A)mini-Batch的大小B)動量梯度下降的參數βC)學習率αD)隱藏層數目答案:C解析:[單選題]34.Sequential構造器的作用是:A)創建模型B)模型優化C)訓練模型D)預測模型答案:A解析:[單選題]35.神經網絡的程序編寫使用了什么方法()A)類和函數B)只有類C)只有函數D)以上都不是答案:A解析:難易程度:易題型:[單選題]36.下列隨機序列中[1,3,1.1,2,3.1,1.9]中,可能是A)均勻分布B)正態分布C)不能確定D)非隨機答案:A解析:[單選題]37.pytorch表達二元交叉熵的代碼是A)(model(X).data>0.5).float()B)(predicted==Y.data).float().mean()C)-(Y*torch.log(hypothesis)+(1-Y)*torch.log(1-hypothesis)).mean()D)torch.mean(torch.square(y-h))答案:C解析:[單選題]38.在人臉檢測系統中,如函數caffe.set_mode_gpu()的含意是設置為什么模式?A)CPU模式B)GPU模式C)CPU+GPU模式D)TPU模式答案:B解析:[單選題]39.keras中dataset中洗牌的參數是A)mapB)filterC)shuffleD)batch答案:C解析:[單選題]40.將多個LSTM組合成層,網絡中有多層,復雜的結構能夠處理更大范圍的()A)動態性B)靜態性C)不穩定性D)魯棒性答案:A解析:[單選題]41.假設一一個具有3個神經元和輸入為[1,2,3]的簡單MLP模型。輸入神經元的權重分別為4,5和6。假設激活函數是一個線性常數值3(激活函數為:y=3x)。輸出是什么?()A)32B)643C)96D)48答案:C解析:[單選題]42.model.save_weights(filepath)將模型權重存儲為()文件。A)JSONB)H5C)HDF5D)DOC答案:C解析:[單選題]43.面部識別系統對面孔進行測量,并生成一個面紋,即面部的唯一數字代碼。每個面紋都存儲為一個()字節的文件。系統可以用每分鐘幾千萬張面孔的速度對內存中的面紋數據進行匹配A)48B)84C)148D)841答案:B解析:[單選題]44.隨時間反向傳播的縮寫是哪個?A)BPTTB)BPC)BPTD)BPTM答案:A解析:[單選題]45.修正線性單元函數是指?A)Sigmoid函數B)tanh函數C)ReLUD)leakyReLU答案:C解析:[單選題]46.如果數據集大小為m,mini-batch的大小為A)1B)mC)大于mD)大于2,小于m答案:D解析:[單選題]47.深度卷積神經網絡中,()提取的特征往往是比較簡單的(如檢測點、線、亮度)?A)深層B)淺層C)最后幾層D)所有層答案:B解析:[單選題]48.飛槳框架調用顯卡計算資源的命令()。A)paddle.set_device(?B)paddle.set_device(?C)paddle.set_device(?D)paddle.set_device(?答案:A解析:難易程度:易題型:[單選題]49.相比于其它激活函數來說,ReLU有以下優勢:對于線性函數而言,ReLU的表達能力更強,尤其體現在深度網絡中;而對于非線性函數而言,ReLU由于非負區間的梯度為常數,因此不存在()(VanishingGradientProblem),使得模型的收斂速度維持在一個穩定狀態。A)梯度消失問題B)卷積C)池化D)全連接答案:A解析:[單選題]50.Alf屬于[0,1],A,B是平面上點,alf*A+(1-alf)*B的意義是A)過AB兩點直線B)A和B構成的線段C)A和B的向量和D)A和B構成的集合答案:B解析:[單選題]51.有許多種梯度下降算法,其中兩種最出名的方法是1-BFGS和SGD。1-BFGS根據二階梯度下降而SGD是根據一階梯度下降的。在下述哪些場景中,會更加偏向于使用1-BFGS而不是SGD?場景1:數據很稀疏場景2:神經網絡的參數數量較少CA)景1B)場景2C)兩種情況都是D)都不會選擇1-BFGS答案:C解析:[單選題]52.管道性能能力提升參數描述正確的是:A)interleave時設置num_parallel_calls讓數據轉換過程多進程執行B)prefetch方法讓數據準備和參數迭代兩個過程相互并行C)prefetch方法可以讓數據讀取過程多進程執行,并將不同來源數據夾在一起D)cache轉換時,先batch,然后采用向量化的轉換方法對每個batch進行轉換答案:B解析:[單選題]53.局部響應標準化,此該環節主要用于防止過擬合,簡稱是什么?A)本區域B)LRNC)BP算法D)池化答案:B解析:[單選題]54.激活函數tf.nn.relu能A)用于卷積后數據B)用于卷積核C)用于步長D)不能用到全連接層答案:A解析:[單選題]55.pytorch不能用來求梯度的方式是:A)backwardB)autograd.gradC)自動微分和優化器D)梯度磁帶答案:D解析:[單選題]56.pytorch交換維度的函數是:A)reshapeB)squeezeC)unsqueezeD)transpose答案:D解析:[單選題]57.日常生活中,關于人工智能的應用,我們接觸最多的是()。A)人臉識別B)電話騷擾C)無人駕駛D)導彈精準打擊答案:B解析:難易程度:易題型:[單選題]58.查看gpu顯卡數量的函數是A)tensor_gpu.is_cudaB)torch.cuda.device_count()C)tensor_gpu.deviceD)torch.cuda.is_available()答案:B解析:[單選題]59.安裝第三方庫的命令正確的是()。A)importB)pipC)installD)pip答案:B解析:難易程度:易題型:[單選題]60.tf.argmax使用的場景有A)矩陣運算B)計算預測類別C)維度變換D)元素排序答案:B解析:[單選題]61.通常全連接層在卷積神經網絡的()A)前幾層B)尾部層C)中間層D)前后幾層答案:B解析:[單選題]62.要建立數學模型,其詳細過程是必須經過數據測量、數據比較、()過程,才能達到最優。A)逐漸逼近B)校準C)回歸D)監督答案:A解析:[單選題]63.torch.nn.Conv2d中控制步長的參數為A)strideB)kerner_sizeC)in_channelsD)out_channels答案:A解析:[單選題]64.下列關于循環控制語句的說法正確的是()。A)break語句的作用是終止整個程序B)continue語句的作用是終止整層循壞C)pass語句的作用是終止一層循環中的某一次循環D)break和continue語句采用不同方式終止循環,pass語句僅僅是一個占位符答案:D解析:難易程度:中題型:[單選題]65.水平翻轉的函數是A)RandomHorizontalFlip()B)RandomVerticalFlip()C)RandomRotationD)RandomCrop答案:A解析:[單選題]66.可以實現多個卷積尺寸處理算法的網絡是A)lenetB)alexnetC)vggD)Inception答案:D解析:[單選題]67.NeuralNetworks簡稱NN,它是A)卷積神經網絡B)標準神經網絡C)循環神經網絡D)RELU神經網絡答案:B解析:[單選題]68.下列哪個神經網絡結構會發生權重共享?A)卷積神經網絡B)循環神經網絡C)全連接神經網絡D)選項A和B答案:D解析:[單選題]69.在課堂中使用預測器對那個單位進行互相轉換()A)英里和海里B)英里和千米C)海里和千米D)公里和千米答案:B解析:難易程度:易題型:[單選題]70.隨機梯度下降算法是()。A)MomentumB)AdamC)AdaGradD)SGD答案:D解析:難易程度:易題型:[單選題]71.keras中()函數將模型訓練epoch輪次。A)trainB)fitC)trainingD)compile答案:B解析:fit函數將模型訓練nb_epoch輪[單選題]72.關于drop_duplicates函數,下列說法中錯誤的是()。A)對Dataframe的數據有效B)僅支持單一特征的數據去重C)數據有重復時默認保留第一個數據D)該函數不會改變原始數據排列答案:B解析:難易程度:中題型:[單選題]73.超參數范圍中說法正確的是A)隨機取值可以提升搜索效率B)隨機取值就是隨機均勻取值C)范圍就是[0,1]D)隨機取值對搜索無影響答案:A解析:[單選題]74.net=Network(13)x1=x[0]y1=y[0]z=net.forward(x1)print(z)中的13是表示那個參數()。A)金陵十三釵B)十三圓桌騎士C)十三個權重D)普通數字十三答案:C解析:難易程度:易題型:[單選題]75.比()好用的激活函數是tanh函數(雙曲正切函數)A)cosh函數B)Sigmoid函數C)RELU函數D)cosx函數答案:B解析:[單選題]76.一般用于將輸入中的單詞映射為稠密向量的函數是A)EmbeddingB)LSTMC)GRUD)RNN答案:A解析:[單選題]77.pytorch中求梯度的方式是A)optimizer.zero_grad()B)zero.autoC)cost.backward()D)optimizer.step()答案:C解析:[單選題]78.圖像處理時,給定輸入圖像,在輸出圖像中每一個像素是輸入圖像中一個小區域中像素的加權平均,其中權值由一個函數定義,這個函數稱為()A)被卷積數據B)卷積核C)步長D)填充答案:B解析:[單選題]79.下列聲明哪些是正確的?聲明1:可以通過將所有權重初始化為0來訓練網絡聲明2:可以通過將偏差初始化為0來訓練網絡A)1和2都錯B)1和2都對C)1錯2對D)1對2錯答案:C解析:[單選題]80.函數x*ln(x)的導數是A)ln(x)+1B)xC)lnxD)1/x答案:A解析:[單選題]81.為什么會有10個輸出神經元?A)純粹隨意B)有10個不同的標簽C)使訓練速度提高10倍D)使分類速度提高10倍答案:B解析:[單選題]82.在多層感知器中,為什么要使用激活函數,下列說法正確的是()A)為了讓輸出變成歸一化數據B)為了讓每一層的輸出為非線性函數C)為了和輸出保持一致D)為了讓數據更加真實答案:B解析:不使用激活函數,每一層輸出都是上層輸入的線性函數,無論神經網絡有多少層,輸出都是輸入的線性組合。[單選題]83.cost.backward()的作用是A)防止代價為非凸函數B)代價反向處理C)回到上一步處理D)進行反向傳播,進行梯度累加答案:D解析:[單選題]84.pytorch中可視化模塊結構是:A)writer.add_graphB)writer.add_scalarC)writer.add_histogramD)writer.add_figure答案:A解析:[單選題]85.在下圖中,我們可以觀察到誤差出現了許多小的"漲落"。這種情況我們應該擔心嗎?A)需要,也許意味著神經網絡的學習速率存在問題B)不需要,集交驗證上有累積的下降就可以了C)不知道D)不好說答案:B解析:[單選題]86.pytorch向上取整的函數是A)roundB)floorC)ceilD)trunc答案:C解析:ceil意思為天花板,是向上取整[單選題]87.()指的就是訓練過程中數據將被重復訓練多少次。A)fitB)countsC)epochsD)numbers答案:C解析:epochs指的就是訓練過程中數據將被?輪?多少次,[單選題]88.深度學習通過多層處理,初始的特征成為()A)低層特征B)高層特征C)中層特征D)淺層特征答案:B解析:[單選題]89.predict(x,batch_size=None,verbose=0,steps=None)中batch_size只能是()A)整數B)小數C)10以內D)大于10答案:A解析:[單選題]90.交叉熵使用了()梯度下降法A)sigmoid函數B)RELU函數C)tanh函數D)cosh函數答案:A解析:[單選題]91.卷積網絡的主要3個特點是:局部感知、權值共享和()A)多層池化B)多層卷積C)多層輸出D)以上都不對答案:B解析:[單選題]92.Relu是用來做什么的?A)返回x的負數B)僅當x大于零時,返回xC)僅當x小于零時,返回xD)返回x的倒數答案:B解析:[單選題]93.廢紙屬于什么類別的垃圾A)有害垃圾B)易腐垃圾C)可回收物D)不清楚答案:C解析:[單選題]94.參數padding的作用是()A)設置卷積步長B)設置卷機時是否考慮邊界C)設置卷積核大小D)以上都不對答案:B解析:[單選題]95.BP神經網絡包括三層,分別是輸入層,()和輸出層。A)連接層B)包含層C)隱藏層D)內層答案:C解析:[單選題]96.深度學習領域中,通常通過什么方式來選擇參數A)通過常識選擇B)隨機選擇點來試驗超參數效果C)選擇輸入的參數即可D)取離散參數的平均值答案:B解析:[單選題]97.RNN具有()展開的特點,這是由其輸入決定的A)時間B)空間C)BP算法D)LSTM答案:A解析:[單選題]98.計算圖中實際傳遞的是A)信息B)算法C)張量D)流程答案:C解析:[單選題]99.在指數衰減學習率函數中,衰減系數必須()A)大于1B)大于0小于1C)1到2之間D)以上都不對答案:B解析:[單選題]100.LeNet-5網絡是針對灰度圖進行訓練的,輸入圖像大小為32*32*1,不包含輸入層的情況下共有()層,即2層卷積,2層池化,3層全連接,每一層都包含可訓練參數(連接權重)A)5B)7C)8D)16答案:B解析:[單選題]101.歐幾里得空間標準內積的另外一種表述是()?A)平方差B)和差化積C)內積D)點積答案:D解析:[單選題]102.A=10?121032?1,B=?210031002,求A?B=()。A)21B)22C)23D)24答案:D解析:難易程度:難題型:[單選題]103.pytorch中展平維度的函數是A)nn.LinearB)nn.FlattenC)nn.DropoutD)nn.BatchNorm2d答案:B解析:[單選題]104.在一個神經網絡里,知道每一個神經元的權值和偏差值是最重要的一步。如果以某種方法知道了神經元準確的權重和偏差,就可以近似任何函數。實現這個最佳的辦法是A)A隨機賦值,祈禱他們是正確的B)搜索所有權重和偏差的組合,直到得到最佳值C)賦予一個初始值,通過檢查跟最佳值的差值,然后迭代更新權重D)以上說法都不正確答案:C解析:[單選題]105.一個800*600分辨率的單通道灰度數字圖像,每個像素用8bit來保存,請問需要多大的計算機空間才能保存一段1分鐘幀率為30的的原始的灰度數字視頻?()A)823.97KbB)6.437MbC)823.97MBD)643.79Kb答案:C解析:[單選題]106.下面哪個方法是對于空間數據的最大池化()A)MaxPooling2DB)AveragePooling1DC)AveragePooling2DD)GlobalAveragePooling2D答案:A解析:[單選題]107.二分類算法可以處理以下哪種場景?A)人臉驗證B)識別動物種類C)語音識別D)股票預測答案:A解析:[單選題]108.可以在同一個會話中運行兩個圖嗎?()A)可以B)不可以C)可能可以D)以上都錯答案:B解析:[單選題]109.在一個32X32大小的圖像,通過步長為1,不考慮填充,大小為5X5的卷積核卷積后,結果尺寸成為A)28X28B)14X14C)31X31D)32X32答案:A解析:[單選題]110.實例的存儲類似普通云服務器,分為系統盤和()A)文檔盤B)數據盤C)軟件盤D)內存盤答案:B解析:[單選題]111.屬于神經網絡學習模型基本步驟是()。A)數據處理B)模型設計C)訓練配置D)以上都是答案:D解析:難易程度:易題型:[單選題]112.梯度爆炸可以使用的解決方式有:A)梯度剪切,正則B)增加擬合數據C)增加訓練數據維度D)增加隱藏層答案:A解析:[單選題]113.作為Sequential模型的第一層model=Sequential()model.add(Dense(32,input_shape=(16,)))#在第一層之后,你就不再需要指定輸入的尺寸了:model.add(Dense(32))請問模型的輸入的尺寸為()A)(*,32)B)(16,*)C)(*,16)D)(32,*)答案:C解析:#作為Sequential模型的第一層model=Sequential()model.add(Dense(32,input_shape=(16,)))#現在模型就會以尺寸為(*,16)的數組作為輸入,#其輸出數組的尺寸為(*,32)#在第一層之后,你就不再需要指定輸入的尺寸了:model.add(Dense(32))[單選題]114.哪個選項不能作為二維數據的存儲方式?()。A)CSV格式B)數據庫存儲C)excel表格存儲D)數學運算后存儲答案:D解析:難易程度:易題型:[單選題]115.監督式學習的常見應用場景如()和回歸問題A)分形問題B)位置問題C)分類問題D)算法問題答案:C解析:監督式學習的常見應用場景如分類問題和回歸問題[單選題]116.感知機中的異或門由那幾個門構成()A)與門和或門B)與門和非門C)與門、非門、或門D)與門、與非門、或門答案:D解析:難易程度:易題型:[單選題]117.()是深度學習訓練時的一種提高準確度的技術方法。英文全稱為?localresponsenormalization?A)本區域B)局部響應歸一化/標準化C)BP算法D)池化答案:B解析:[單選題]118.帶有正則化處理的函數是A)reLuB)sigmoidC)softmaxD)dropout答案:D解析:[單選題]119.在實現tf變量A和B按照對應位相乘的函數是()A)tf.multiplyB)tf.matmulC)A*BD)A,puls(B.答案:A解析:[單選題]120.研究發現Inception-ResNet模型可以在更少的epoch內達到更()的準確率A)低B)高C)先高后低D)不確定答案:B解析:[單選題]121.程序語句print(tf.__version__),有什么作用?A)顯示安裝的tensorflow的版本號B)保存安裝的tensorflow的版本號C)下載安裝的tensorflowD)下載上一個版本的tensorflow答案:A解析:[單選題]122.對ImageDataGenerator類錯誤的描述是()A)在某一批次訓練時,對旋轉平移等各種參數,會分別對一張原圖增強,得到多個增強后的樣本。B)若設置samplewisecenter=True,則對所有的樣本都減去樣本均值。C)若設置rescale=1.0/255.0.則對所有的樣本都除于255。D)ImageDataGenerator類的flowfromdirectory函數中,可以設置targetsize統一使得所有的終片resize為指定大小。答案:A解析:[單選題]123.指數加權平均數公式的好處在于A)只需要少量參數B)占用極少內存C)不適用學習率D)是非監督式學習答案:B解析:[單選題]124.編碼器-解碼器模式屬于以下哪種模式?A)一對一B)一對多C)多對一D)多對多答案:D解析:[單選題]125.np.array([[1,2,3],[4,5,6]])屬于幾維數組()。A)0B)1C)2D)3答案:C解析:難易程度:易題型:[單選題]126.Tf.cast(x,32)將x類型轉化成A)返回整數值B)返回布爾值C)返回浮點值D)返回字符答案:A解析:[單選題]127.()是一種特定形式的RNN循環神經網絡,英文全稱Longshort-termmemoryA)CNNB)LSTMC)RNND)CONV答案:B解析:[單選題]128.雙向循環神經網絡的英文縮寫是?A)RNNB)SRNNC)TRNND)Bi-RNN答案:D解析:[單選題]129.下列的哪種方法可以用來降低深度學習模型的過擬合問題?1增加更多的數據2使用數據擴增技術(dataaugmentation)3使用歸納性更好的架構4正規化數據5降低架構的復雜度A)145B)123C)1345D)所有項目都有用答案:D解析:[單選題]130.一般深度學習中,處理大量數據集,一般使用的下降方式是:A)批量梯度下降B)小批量梯度下降C)隨機梯度下降D)正規方程解答案:B解析:[單選題]131.可以把維度中數值為1進行壓縮的函數是:A)reshapeB)squeezeC)expand_dimsD)transpose答案:B解析:[單選題]132.騰訊云CVM為您提供全面廣泛的服務內容。包括多種機型配置,其中騰訊云CVM提供的機型類型介紹錯誤的是:A)大數據型(適合Hadoop分布式計算、海量日志處理、分布式文件系統和大型數據倉庫等吞吐密集型應用B)標準型(適合中小型Web應用、中小型數據庫)C)內存型(適合需要大量的內存操作、查找和計算的應用)D)計算型(適合大型游戲服務器和廣告服務引擎、高性能計算以及其他計算密集型應用程序)E)異構型(適合于深度學習、科學計算、視頻編解碼和圖形工作站等高性能應用)F)高IO型(適用于渲染、基因分析、晶體藥學等短時頻繁使用超大規模計算節點的計算密集型應用)答案:F解析:騰訊云CVM為您提供全面廣泛的服務內容。多種機型配置:標準型(適合中小型Web應用、中小型數據庫)。內存型(適合需要大量的內存操作、查找和計算的應用)。高IO型(適合低時延,I/O密集型應用)。計算型(適合大型游戲服務器和廣告服務引擎、高性能計算以及其他計算密集型應用程序)。大數據型(適合Hadoop分布式計算、海量日志處理、分布式文件系統和大型數據倉庫等吞吐密集型應用)。異構型(適合于深度學習、科學計算、視頻編解碼和圖形工作站等高性能應用)。批量型(適用于渲染、基因分析、晶體藥學等短時頻繁使用超大規模計算節點的計算密集型應用)。第2部分:多項選擇題,共41題,每題至少兩個正確答案,多選或少選均不得分。[多選題]133.在tf中,與全局變量初始化相關的操作語句是A)init_op=tf.global_variables_initializer()B)withtf.Session()assess:C)sess.run(init_op)D)importnumpyasnp答案:ABC解析:[多選題]134.pytorch可以實現的功能有:A)GPU加速B)自動求導C)定義常用網絡層D)模型預測答案:ABCD解析:[多選題]135.Keras中循環相關的層有A)LSTMB)EmbeddingC)SimpleRNND)LSTMCell:LSTM答案:ABCD解析:[多選題]136.借助池化,網絡存儲可以有效提升存儲的利用率,池化操作通常有幾種?A)平均池化B)卷積C)最大池化D)全連接答案:AC解析:[多選題]137.數據管道中可以使用獲取數據的方式有A)from_tensor_slicesB)read_csvC)make_csv_datasetD)list_files答案:ACD解析:[多選題]138.語句t=tf.ones_like(a)的幾個意義是A)將t節點內容用a替換B)t節點對應張量維度和A相同C)t對應張量值為1D)a需要預先初始化答案:BCD解析:[多選題]139.關于歸一化描述正確的是:A)歸一化可以預防過擬合B)歸一化沒有實質作用C)歸一化將所有數據樣本值縮放到0-1之間D)歸一化是一種激活函數答案:AC解析:[多選題]140.動量梯度下降算法是通過()和()控制梯度下降的A)平均值B)指數加權平均值C)學習率D)方差答案:BC解析:[多選題]141.Tf.nn.dropout()是tensorflow里面為了防止或減輕過擬合而使用的函數,它一般用在全連接層,具體的作用是有那些?A)停止某些節點更新B)保留百分率為keep_prob的節點更新C)在全鏈接層有效D)可以停止任意層節點更新答案:ABCD解析:[多選題]142.深度學習中三個主義分別是A)符號主義B)連接主義C)激活主義D)行為主義答案:ABD解析:[多選題]143.以下屬于激活函數的有:A)ReluB)dropoutC)sigmoidD)softmax答案:ACD解析:[多選題]144.需要獨熱的數據類型有A)多分類標簽B)離散特征C)時間步單詞D)連續值答案:ABC解析:[多選題]145.在深度神經網絡中,如果是填充后求卷積,圖像尺寸保持不變,以下哪些參數是正確的A)以0填充一圈B)以1填充一圈C)步長為1D)圖像尺寸變小答案:AC解析:[多選題]146.零填充描述正確的是A)可以給圖像周邊填充0B)保證卷積后的結果大小不變C)將卷積數據歸零D)卷積池化中都可以使用答案:ABD解析:[多選題]147.Tensorflow實現cnn模型的訓練與使用開發過程的步驟通常包括()A)準備樣本集合B)前向傳遞,求出lossC)求出反向的梯度D)按照梯度的反向傳播,更新參數答案:ABCD解析:[多選題]148.常用的循環網絡相關層有:A)nn.EmbeddingB)nn.LSTMC)nn.GRUD)nn.RNN答案:ABCD解析:[多選題]149.要抽象和展示MathematicalModel通常會使用()等方式A)數學符號B)數學式子C)程序D)圖形答案:ABCD解析:[多選題]150.語句tf.variables_initializer語句可以A)初始化一個變量B)初始化多個變量C)初始化全部變量D)初始化常量答案:ABC解析:[多選題]151.常用的梯度優化算法有:A)dropoutB)動量梯度下降法C)RMSpropD)Adam答案:BCD解析:[多選題]152.涉及到1*1卷積的網絡模型有A)lenetB)alexnetC)resnetD)inception答案:CD解析:[多選題]153.長短期記憶中的門有A)遺忘門B)輸入門C)輸出門D)更新門答案:ABC解析:[多選題]154.以下可以連續求導的幾乎函數有A)reluB)sigmoidC)tanhD)dropout答案:BC解析:[多選題]155.操作系統(operatingsystem,簡稱OS)是管理()的計算機程序。A)計算機硬件B)使用人員C)軟件資源D)開發人員答案:AC解析:[多選題]156.tensorflow2.0中常見的兩種數據為A)變量B)常量C)占位符D)全是答案:AB解析:[多選題]157.語句train_acc=accuracy.eval(feed_dict={x:batch[0],y_actual:batch[1],keep_prob:1.0})A)是訓練過程B)是測試過程C)輸入訓練集合D)輸入dropout比例答案:ACD解析:[多選題]158.不能實現總體求和、總體平均的函數是:A)tf.reduce_sumB)tf.multiplyC)tf.reduce_meanD)tf.norm答案:BD解析:[多選題]159.人臉質量信息是要返回人臉各部分的()等信息A)遮擋B)光照C)模糊D)完整度、置信度答案:ABCD解析:[多選題]160.使用到平均池化的cnn網絡的有A)lenetB)alexnetC)resnetD)Inception答案:CD解析:[多選題]161.關于LeNet深度神經網絡的構成,它的組成描述是A)卷積層B)激活函數C)池化層D)全連接層答案:ABCD解析:[多選題]162.關于梯度消失,說法正確的是:A)可以通過激活函數防止梯度消失B)梯度消失對神經網絡無影響C)盡量避免梯度消失D)梯度消失反向傳播時,由于梯度值過小或消失的現象答案:ACD解析:[多選題]163.BPTT算法是針對循環層的訓練算法,它的基本原理和BP算法是一樣的,也包含同樣的幾個步驟:A)前向計算每個神經元的輸出值B)反向計算每個神經元的誤差項值,它是誤差函數E對神經元j的加權輸入的偏導數C)計算每個權重的梯度D)最后再用隨機梯度下降算法更新權重答案:ABCD解析:[多選題]164.手寫體識別程序經常調用的四個數據集包括以下選項中那幾個?()A)train-images.idx3-ubyteB)train-labels-idx1-ubyteC)t10k-images.idx3-ubyteD)t10k-labels-idx1-ubyte答案:ABCD解析:[多選題]165.屬于pytorch中常用的損失函數有:A)nn.MSELossB)nn.CrossEntropyLossC)nn.L1LossD)nn.BCEWithLogitsLoss答案:ABCD解析:[多選題]166.深度學習網絡的卷積部分的組成有A)卷積層B)RELUC)POOLING層D)pedding答案:ABC解析:[多選題]167.nn.Sequential的等價使用方式有A)利用add_module方法B)利用變長參數C)利用OrderedDictD)都不是答案:ABC解析:[多選題]168.計算機的操作系統根據不同的用途分為不同的種類,從功能角度分析,分別有()等。A)實時系統B)批處理系統C)分時系統D)網絡操作系統答案:ABCD解析:計算機的操作系統根據不同的用途分為不同的種類,從功能角度分析,分別有實時系統、批處理系統、分時系統、網絡操作系統等。[多選題]169.pytorch梯度下降的相關函數有A)zero_gradB)backwardC)stepD)optim答案:ABC解析:[多選題]170.Inception網絡都是頂尖的網絡代表,Inception細分種類有那幾種?()A)Inceptionv1B)Inceptionv2C)Inceptionv3,Inceptionv4D)Inception-ResNet答案:ABCD解析:[多選題]171.屬于卷積核K的參數是A)步長B)填充C)輸入通道D)輸出通道答案:CD解析:[多選題]172.圖像讀寫語句:image0=tf.image.decode_jpeg(value)A)對Value進行解碼B)Value是jpeg格式數據C)value是壓縮數據D)tf.image是圖像處理類答案:ABCD解析:[多選題]173.在神經網絡中,常常會用到如下函數:tensorflow.nn.softmax_cross_entropy_with_logits_V2()是A)在卷積層B)進行優化C)用信息熵D)一定全連接層答案:BCD解析:第3部分:判斷題,共54題,請判斷題目是否正確。[判斷題]174.VGG16有16個卷積層A)正確B)錯誤答案:錯解析:[判斷題]175.對于損失函數,有多種函數形式可以表達。A)正確B)錯誤答案:對解析:[判斷題]176.RNN中,LSTM比GRU更加靈活。A)正確B)錯誤答案:對解析:[判斷題]177.三元組損失算法中,只有選擇難的三元組梯度下降法才能發揮作用。A)正確B)錯誤答案:對解析:[判斷題]178.人工智能是一種擁有人類智能行為的計算機科學A)正確B)錯誤答案:對解析:[判斷題]179.torch.device('cpu')是使用cpu運行代碼A)正確B)錯誤答案:對解析:[判斷題]180.給定概率空間,信息熵是針對無限個概率事件的。A)正確B)錯誤答案:錯解析:[判斷題]181.評判一句話的信息量,當它越大,該句話發生的概率越大。A)正確B)錯誤答案:錯解析:[判斷題]182.在一個系統中,信息量的概率平均就是信息熵。A)正確B)錯誤答案:對解析:[判斷題]183.考慮某個具體問題時,你可能只有少量數據來解決這個問題。不過幸運的是你有一個類似問題已經預先訓練好的神經網絡。可以把除了最后一層外所有的層都凍結,重新訓練最后一層。A)正確B)錯誤答案:錯解析:[判斷題]184.在古典概率空間,其樣本點對應概率必須相等。A)正確B)錯誤答案:對解析:[判斷題]185.CNN相比于全連接的優勢之一是模型復雜度低,緩解過擬合A)正確B)錯誤答案:對解析:[判斷題]186.人工智能的最終目標是研究如何使用計算機去做靠人的智力才能做的工作。A)正確B)錯誤答案:錯解析:[判斷題]187.損失函數有兩個表達方式,均方差表達,和信息熵表達。A)正確B)錯誤答案:對解析:[判斷題]188.神經網絡框架TensorFlow可以安裝在Ubuntu、MacOS和Windows系統平臺上A)正確B)錯誤答案:對解析:[判斷題]189.隨機生成的卷積核,個別一些卷積核對特征提取幾乎無貢獻,但不影響運算。A)正確B)錯誤答案:對解析:[判斷題]190.如果需要對模型的參數(一般非標量)在訓練過程中的變化進行可視化,可以使用writer.add_histogramA)正確B)錯誤答案:對解析:[判斷題]191.對平方范數的損失函數求偏導數的結果,得到一個梯度向量。A)正確B)錯誤答案:對解析:[判斷題]192.形狀相似的兩個信號序列,其相關系數也大。A)正確B)錯誤答案:對解析:[判斷題]193.Tf.argmax可以認為就是np.argmax。tensorflow使用numpy實現的這個APIA)正確B)錯誤答案:對解析:[判斷題]194.用二維濾波器在被卷積的2D圖像上所有位置滑動,并在每個位置上與對應像素點及其領域像素點做內積,這就是二維卷積的原理A)正確B)錯誤答案:對解析:[判斷題]195.ImporttensorflowastfPrint(help(tf))這個語句是尋求幫助的過程A)正確B)錯誤答案:對解析:[判斷題]196.損失函數,可以由誤差向量的總體范數平方定義A)正確B)錯誤答案:對解析:[判斷題]197.sigmoid也可以做多分類A)正確B)錯誤答案:對解析:[判斷題]198.Tf語句X.Initializer的意義是對X常量初始化。A)正確B)錯誤答案:錯解析:[判斷題]199.step函數處理的是反向傳播A)正確B)錯誤答案:錯解析:[判斷題]200.Dropout說的簡單一點就是:我們在前向傳播的時候,讓某個神經元的激活值以一定的概率p停止工作,這樣可以使模型泛化性更強,因為它不會太依賴某些局部的特征A)正確B)錯誤答案:對解析:Dropout說的簡單一點就是:我們在前向傳播的時候,讓某個神經元的激活值以一定的概率p停止工作,這樣可以使模型泛化性更強,因為它不會太依賴某些局部的特征[判斷題]201.損失函數主要是計算真實值與預測值之間的誤差。A)正確B)錯誤答案:對解析:[判斷題]202.BP傳播算法過程是經過信號前向傳播與誤差反向傳播,W權值和閾值的調整反復進行,一直進行到預先設定的學習訓練次數,或輸出誤差減小到允許的程度A)正確B)錯誤答案:對解析:[判斷題]203.交叉熵(crossentropy)描述的是兩個概率分布之間的距離,距離越小表示這兩個概率越相近,越大表示兩個概率差異越大。A)正確B)錯誤答案:對解析:[判斷題]204.人工智能就是神經網絡。A)正確B)錯誤答案:錯解析:[判斷題]205.深度學習的基礎,叫做神經網絡,它與機器學習算法有本質的區別。A)正確B)錯誤答案:錯解析:[判斷題]206.對于函數tf.reshape函數用于對張量變形。A)正確B)錯誤答案:對解析:[判斷題]207.RecurrentNeuralNetwork,RNN這種網絡的本質特征是在處理單元之間既有內部的反饋連接又有前饋連接A)正確B)錯誤答案:對解析:[判斷題]208.在一次學習問題中,只能通過一個樣本進行學習,以能夠認出同一個人。A)正確B)錯誤答案:對解析:[判斷題]209.RandomRotation是隨機翻轉角度A)正確B)錯誤答案:錯解析:[判斷題]210.分類問題用邏輯回歸,預測問題用線性回歸。A)正確B)錯誤答案:對解析:[判斷題]211.對于一個給定的概率空間,信息熵會有多個。A)正確B)錯誤答案:錯解析:[判斷題]212.writer.add_image可視化可以加入一張或多張圖片A)正確B)錯誤答案:錯解析:[判斷題]213.自然語言理解俗稱人機對話()。A)正確B)錯誤答案:對解析:[判斷題]214.在機器學習框架方面,TensorFlow的真正獨特之處在于,能夠在5行或者10行代碼中構建模型。然后應用這個模型,進行擴展做出產品。A)正確B)錯誤答案:對解析:[判斷題]215.感知器是一種二元線性分類器()A)正確B)錯誤答案:對解析:[判斷題]216.如果學習率很小,那么訓練可能不收斂。權重變化可能很大,以至于優化器錯失最優化并使得損失變大。A)正確B)錯誤答案:錯解析:如果學習率很大,那么訓練可能不收斂。權重變化可能很大,以至于優化器錯失最優化并使得損失變大。[判斷題]217.深度學習是機器學習的一種,而機器學習是實現人工智能的必經路徑。A)正確B)錯誤答案:對解析:[判斷題]218.事件的信息熵,是系統信息熵的一個組成部分。A)正確B)錯誤答案:對解析:[判斷題]219.增加卷積核的尺寸,一定能提高卷積神經網絡的性能()A)正確B)錯誤答案:錯解析:[判斷題]220.神經網絡添加隱藏層可能會梯度消失A)正確B)錯誤答案:對解析:[判斷題]221.損失函數中,基于信息熵的損失函數,與平方范數損失函數互有矛盾。A)正確B)錯誤答案:錯解析:[判斷題]222.梯度和損失函數不一樣,是個向量A)正確B)錯誤答案:對解析:[判斷題]223.不論多大的數據集,測試集數量必須保持在30%A)正確B)錯誤答案:錯解析:[判斷題]224.賦范空間中,v,ws屬于向量空間V,||v+w||<=||v||+||w||表示三角不等式。A)正確B)錯誤答案:對解析:[判斷題]225.20世紀80年代,計算機硬件的性能不斷提高,PC的市場不斷擴大,當時可供計算機選用的操作系統主要有Unix、DOS和macOS這幾種。A)正確B)錯誤答案:對解析:[判斷題]226.loss和各種metric的變化曲線可以使用writer.add_scalar處理A)正確B)錯誤答案:對解析:[判斷題]227.深度學習在不同的領域超參數的設定不能通用A)正確B)錯誤答案:錯解析:第4部分:問答題,共33題,請在空白處填寫正確答案。[問答題]228.簡述正則化的物理意義。答案:正則化在神經網絡計算損失值的過程中,在損失項后面加一項。這項損失表示網絡的輸出與標準結果受到干擾,導致學習參數無法按照目標方向來調整,從而達到防止過擬合的效果。解析:[問答題]229.在TensorFlow中啟動會話有幾哪種方法?答案:1需明確調用會話生成函數和會話關閉函數2通過上下文管理器來使用會話解析:[問答題]230.層的實現中有兩個共通的方法_______和_______答案:forward()|backward()解析:[問答題]231.繪制直方圖的方法_______答案:hist()解析:[問答題]232.數字5用獨熱表示的形式為_______。答案:0000010000;解析:[問答題]233.神經網絡中人工設定的參數稱為_______答案:超參數解析:[問答題]234.編程:新建一個名為weights的Tensor變量,里面的變量名為big_weights,并進行初始化。答案:ImporttensorflowastfDefvariables_create():weights=tf.Variable(tf.random_normal([784,200]),name="big_weights")init_op=tf.global_variables_initializer()returnweights解析:[問答題]235.編程:實現下載并輸出MNIST數據集的相關屬性。答案:Fromtensorflow.examples.tutorials.mnistimportinput_dataMnist=input_data.read_data_sets("data/",one_hot=True)Print(mnist.train.images.shape)Print(mnist.train.labels.shape)Print(mnist.validation.images.shape)Print(mnist.validation.labels.shape)Print(mnist.test.images.shape)Print(mnist.test.labels.shape)解析:[問答題]236.編程:使用Tensorflow在屏幕上打印出一句話。答案:ImporttensorflowastfImportnumpyasnpGreeting=tf.constant('HelloGoogleTensorflow!')Sess=tf.Session()#啟動一個會話Result=sess.run(greeting)#使用會話執行greeting計算模塊Print(result)Sess.close()解析:[問答題]237.tensorflow中,用________函數返回一個大于或等于參數的最小整數。答案:Ceil();解析:[問答題]238.測試集樣本的形狀為_______。答案:(10000,784);解析:[問答題]239.編程:定義兩個常量,通過損失函數,計算兩個常量的均方誤差。答案:ImporttensorflowastfA=tf.constant([[4.0,4.0,4.0],[3.0,3.0,3.0],[1.0,1.0,1.0]])B=tf.constant([[1.0,1.0,1.0],[1.0,1.0,1.0],[2.0,2.0,2.0]])Mse=tf.reduce_mean(tf.square(a-b))Withtf.Session()assess:Print(sess.run(mse))解析:[問答題]240.畫出一個包含1個卷積層、兩個全連接層,進行圖片分類任務的CNN網絡答案:解析:[問答題]241.assign()函數的作用是______。答案:賦值;解析:[問答題]242.簡述構建二維線性模型的流程。答案:準備數據;搭建模型;反向傳播;迭代訓練;模型預測解析:[問答題]243.為什么首先使用神經網絡?答案:通用逼近性定理指出,一個具有單個隱藏層和標準激活函數的簡單前饋神經網絡(即多層感知器),如果隱藏層具有足夠數量的單位,它就可以近似任何連續函數。解析:[問答題]244.在神經網絡中,學習率為什么很重要?學習率衰減是指什么?答案:①學習率過小,會導致學習花費過多時間,反過來學習率過大,則會導致學習發散而不能正確進行。②隨著學習進行,使學習率逐漸減小。解析:[問答題]245.在全連接神經網絡中可以通過設置______來防止過擬合。答案:正則化;解析:[問答題]246.梯度下降法主要用于________。答案:優化單個參數的取值;解析:[問答題]247.編程:分別使用隨機種子1產生三個符合正太分布的變量,并將其輸出。答案:ImporttensorflowastfW1=tf.Variable(tf.random_normal([2,3],stddev=1,seed=1))W2=tf.Variab

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論