




版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
PAGEPAGE1《人工智能深度學習技術》考試復習題庫(濃縮300題)一、單選題1.在tf函數中,通常需將一個變量的值賦給另一個變量,可以使用編程語句是()A、tf.assign()B、tf.sub()C、tf.add()D、tf.eqeal()答案:A2.在前向傳播反向傳播過程中,例如求導結果為f(z)'=f(z)(1?f(z))那么這個激活函數最有可能會是下面選項中的那一個?()A、RelU函數B、tanhC、coshD、sigmoid答案:D3.Tf中placeholder是一個A、常量B、變量C、占位符D、函數答案:C4.編程中,通常要進行全局變量初始化操作,可以使用下列那一個語句()A、init_op=tf.global_variables_initializer()B、init_op=tf.variables_initializer()C、init_op=tf.initializer()D、init_op=np.global_variables_initializer()答案:A5.早期的機器學習算法中,如果有兩個超參數,通常通過什么方式來選擇參數A、網格中取樣點,然后系統的研究這些數值B、比較參數的大小C、對參數進行迭代選擇D、對參數進行平均答案:A6.對于概率空間,集合的劃分,與下列最有關系的是A、距離空間B、概率空間C、向量空間D、排序答案:B7.執行語句print(tf.__path__)后,結果是['C:\\ProgramFiles\\Anaconda3\\lib\\site-packages\\tensorflow'],則該語句實現的功能是?A、查詢tensorflow位置B、查看tensorflow安裝路徑C、查詢tensorflow版本D、測試tf模塊安裝是否正常答案:B8.樣本點數量相同的概率空間,可以等價互換。A、是B、不能C、部分能D、部分不能答案:A9.將多個LSTM組合成層,網絡中有多層,復雜的結構能夠處理更大范圍的()A、動態性B、靜態性C、不穩定性D、魯棒性答案:A10.池化核ksize=[1,2,2,1]將圖像A、縮小到1/2B、縮小到1/4C、擴大兩倍D、擴大四倍答案:B11.卷積定理指出,函數卷積的傅里葉變換是函數傅里葉變換的()。即,一個域中的卷積相當于另一個域中的(),例如時域中的卷積就對應于頻域中的乘積。A、乘積,乘積B、乘積,范數C、范數,乘積D、范數,距離答案:A12.()就是在不同的訓練過程中隨機扔掉一部分神經元。也就是讓某個神經元的激活值以一定的概率p,讓其停止工作,這次訓練過程中不更新權值,也不參加神經網絡的計算。但是它的權重得保留下來(只是暫時不更新而已)A、conv2dB、max_poolC、DropoutD、FC答案:C13.Batch歸一化即是A、批量歸一化B、僅對輸入數據進行歸一化C、僅對隱藏層進行歸一化D、提升了參數搜索難度答案:A14.有多個卷積核的原因是:A、同時提取多個圖像的特征B、提取某些圖像多個特征C、圖像有多個通道D、與多特征無關答案:B15.貝努力實驗的基礎概率空間是:A、均勻分布B、高斯分布C、0-1分布D、指數分布答案:C16.卡耐基梅隆大學的DeanPomerleau在上世紀80年代末基于()制造了一輛自動駕駛汽車A、BP算法B、神經網絡C、前向算法D、NFC答案:B17.局部平均值又被稱為A、常規平均值B、柵格平均值C、移動平均值D、唯一平均值答案:C18.在數學模型開發過程中,經常會使用例如數學符號、數學式子以及()來抽象和描述該模型A、范數B、程序或圖形C、卷積D、池化答案:B19.語句tf.nn.conv2d(),其中遇到的圖像張量,格式是A、[batch,in_height,in_width,in_channels]B、[Size,in_height,in_width,in_channels]C、[batch,in_width,in_height,in_channels]D、[batch,in_channels,in_height,in_width]答案:A20.Tanh函數的導數范圍是()A、(0,1]B、(0,0.1]C、(0,-1]D、(0,10]答案:A21.多層前饋網絡也稱為()A、BP網絡B、隱藏層網絡C、輸入層網絡D、輸出層網絡答案:A22.Tf.add(a,b)函數的作用是?A、除法B、加法操作C、減法操作D、乘法操作答案:B23.卷積神經網絡中每層卷積層(Convolutionallayer)由若干卷積單元組成,每個卷積單元的參數都是通過反向傳播算法最佳化得到,其作用是()A、增強圖像B、簡化圖像C、特征提取D、圖像處理答案:C24.以下哪個是門控循環單元A、LSTMB、GRUC、CNND、RNN答案:B25.在tensorflow下創建的會話tf.Session(),當上下文管理器退出時會話tf.Session()在關閉的同時且會()釋放相關資源A、自動B、無法C、不清楚D、不能答案:A26.不能解決梯度消失的是:A、調整激活函數類型B、使用batchnormC、增大隱藏層數量D、訓練值預處理答案:C27.卷積層的作用是A、增強圖像B、簡化圖像C、特征提取D、圖像處理答案:C28.TensorFlow、Keras框架為機器學習ML和()提供了靈活的數值計算核心A、MLB、算法重構C、NPLD、深度學習答案:D29.Batch歸一化的特點不包括A、使參數搜索問題變得容易B、使神經網絡對超參數的選擇更加穩定C、超參數的范圍更加龐大D、僅作用于輸入層答案:D30.在tf中,構建交叉熵損失函數的語句是:A、cross_entropy=-tf.reduce_sum(y_actual*tf.log(y_predict))B、cross_entropy=-tf.reduce_all(y_actual*tf.log(y_predict))C、cross_entropy=-tf.reduce_max(y_actual*tf.log(y_predict))D、cross_entropy=-tf.reduce_s(y_actual*tf.log(y_predict))答案:A31.ActivationfunctionRectifiedLinearUnit即激活函數ReLU,它的作用是()A、引用了無效的單元格地址B、過濾無效神經元C、不是激發函數D、將正數保留,將負數置0答案:D32.對于擬合的問題,下列說法正確的是:A、過擬合的現象是訓練集準確率低,而測試集準確率高B、欠擬合的現象是訓練集和測試集準確率相近C、盡量不要出現適度擬合,會造成新數據準確率低D、欠擬合是指驗證集和測試集的準確率都無法保證正常業務使用答案:D33.Tf.matmul(a,B,transpose_a=False,transpose_b=False,adjoint_a=False,adjoint_b=False,a_is_sparse=False,b_is_sparse=False,name=None)函數返回值是一個跟張量a和張量b類型一樣的張量且最內部矩陣是a和b中的相應矩陣的()A、相與B、乘積C、相除D、相加答案:B34.下列函數能實現對比兩個矩陣是否相等,或者向量是否相等的元素的函數是哪一個?A、c=tf.greater(a,b)B、a=tf.subtract(a,b)C、b=tf.equal(a,b)D、d=tf.matmul(a,b)答案:C35.通常,一個實數或復數向量空間加上長度和角度的概念,稱為()A、內積空間B、賦范空間C、矢量空間D、希爾伯特空間答案:A36.Tf.nn.conv2d(),其中遇到的圖像張量,格式是A、[batch,in_height,in_width,in_channels]B、[Size,in_height,in_width,in_channels]C、[batch,in_width,in_height,in_channels]D、[batch,in_channels,in_height,in_width]答案:A37.一個32X32大小的圖像,通過步長為2,尺寸為2X2的池化運算后,尺寸變為A、14X14B、2X2C、28X28D、16X16答案:D38.對一個概率空間,進行多種劃分,其信息熵是A、一定相等B、一定不等C、不確定無關聯D、互有關聯答案:C39.Tf.multiply(x,y,name=None),其中類型跟張量x相同的張量是A、yB、tfC、nameD、None答案:A40.深度學習典型應用:人臉識別,指什么網絡架構?A、LeNET5B、(CNN:AlexNet)C、VGGD、ResNet答案:B41.在機器學習和深度學習中,監督學習算法有A、聚類B、降維C、回歸算法D、PCA答案:C42.連接主義的主要原理為神經網絡及神經網絡間的連接機制與學習算法。其英文縮寫為()A、symbolicismB、actionismC、connectionismD、AI答案:C43.Multiply這個函數實現的是元素級別的相乘,也就是兩個相乘的數元素各自()A、相與B、相乘C、相除D、相加答案:B44.(e^x)*x^2的導數是A、(e^x)(x^2+2x)B、(e^x)C、(e^x)*cos(x)D、cosx答案:A45.動量梯度算法,是通過學習率和()控制梯度下降的A、指數加權平均數B、局部平均值C、全局平局值D、方差答案:A46.Siamese網絡試用與做驗證任務,最常見的是針對()元組和三元組的二分支、三分支網絡A、一B、二C、三D、四答案:B47.Alf屬于[0,1],A,B是平面上點,alf*A+(1-alf)*B的意義是A、過AB兩點直線B、A和B構成的線段C、A和B的向量和D、A和B構成的集合答案:B48.Tf.equal(0,False)的結果是A、1B、0C、TrueD、False答案:C49.函數tf.constant()不正確的用法是那一個選項?A、tensor=tf.constant(1)B、tensor=tf.constant([1,2])C、tensor=tf.constant(-1,shape=[2,3])D、a=tf.constant([1.0,2.0],name="a)答案:D50.在深度學習中的目標檢測中會檢測出多個目標框,后期需要通過非極大值抑制去除得分低并且iou()閾值的目標框A、小于B、大于C、等于D、大于或小于答案:B51.語句W_conv1=weight_variable([5,5,8,32])b_conv1=bias_variable([X])兩句代碼實現卷積核,其中對應偏置的數字X應該是:A、32B、8C、5D、1答案:A52.Tensorflow中,哪個是與詞向量有關的函數?A、tf.nn.softmax_cross_entropy_with_logitsB、tf.nn.sigmoid_cross_entropy_with_logitsC、tf.nn.embedding_lookupD、tf.nn.dropout答案:C53.LSTM網絡通過精妙的()將短期記憶與長期記憶結合起來,并且一定程度上解決了梯度消失的問題A、RNN控制B、前饋控制C、BP控制D、門控制答案:D54.在典型的Batch歸一化運用中需要用什么來估算A、一個指數加權平均B、平均值C、方差D、最大值答案:A55.Tf.ones_like(tensor)該操作返回一個具有和給定tensor相同形狀(shape)和相同數據類型(dtype)A、dtypeB、tensorC、shapeD、int答案:B56.歐幾里得空間標準內積的另外一種表述是()?A、平方差B、和差化積C、內積D、點積答案:D57.程序語句print(tf.__version__),有什么作用?A、顯示安裝的tensorflow的版本號B、保存安裝的tensorflow的版本號C、下載安裝的tensorflowD、下載上一個版本的tensorflow答案:A58.以下數據集分配方式錯誤的是:A、2億條數據,測試集數量可以少于4千萬條B、數據量較少時,訓練集和測試集可以按照7:3分配C、在一些情況下,可以將全部數據作為訓練集D、小數據量時,訓練,驗證,測試集比例可以按照6:2:2進行分配答案:C59.神經網絡LenNet-5共有7層(不包括輸入層),主要有2個()、2個下抽樣層(池化層)、3個全連接層3種連接方式A、輸入層B、卷積層C、池化層D、FC層答案:B60.Sigmoid函數的缺點:導數值范圍為(0,0.25],反向傳播時會導致“梯度消失”。而()函數導數值范圍更大,相對好一點。A、coshB、sinC、tanhD、sigmoid答案:C61.通常歐幾里得距離,也叫A、非負距離B、平面距離C、絕對值距離D、平方范數距離答案:D62.加權平均值是通過()得到的A、局部平均值B、局部方差C、全局平均值D、全局方差答案:A63.Tf的全局變量初始化語句是A、tf.global_variables_initializer()B、tf.variables_initializerC、sess.run(w.initializer)D、tf.initializer()答案:A64.在TF框架中,激活函數tf.nn.relu的作用是?A、用于卷積后數據B、用于卷積核C、用于步長D、不能用到全連接層答案:A65.神經風格遷移是指將()圖像的風格應用于目標圖像,同時保留目標圖像的內容。A、參考B、卷積C、池化D、腐蝕答案:A66.面部識別軟件可歸入名為生物識別的一大類技術。生物識別技術使用()來驗證身份A、生物信息B、特征點C、算法D、標識答案:A67.交叉熵使用了()梯度下降法A、sigmoid函數B、RELU函數C、tanh函數D、cosh函數答案:A68.LeNet-5網絡是針對灰度圖進行訓練的,輸入圖像大小為32*32*1,不包含輸入層的情況下共有()層,即2層卷積,2層池化,3層全連接,每一層都包含可訓練參數(連接權重)A、5B、7C、8D、16答案:B69.在TensorFlow中使用tf.log函數可以計算元素的自然對數,自然對數以常數()為底數的對數,A、eB、10C、2D、10^^答案:A70.在tf.nn.conv2d(a,B,C,d),其中填充操作是A、aB、bC、cD、d答案:D71.對于神經網絡,AW=Y,其中A是訓練集合,Y是標簽集合,總體損失函數E一般表示為是:A、0.5乘(Y-AX)的范數平方B、(Y-AX)C、Y對X的偏導數D、(AX-Y)答案:A72.程序語句cost=tf.reduce_mean(tf.square(hypothesis-Y))通常是什么算法使用?A、線性回歸B、邏輯回歸C、SVMD、CNN答案:A73.Adam算法的tensorflow代碼是:A、tf.example.AdamOptimizerB、tf.train.AdamOptimizerC、tf.nn.AdamOptimizerD、tf.AdamOptimizer答案:B74.想要處理梯度消失,相對最好的激活函數是:A、sigmoidB、ReluC、tanhD、LeakyRelu答案:D75.Adam算法的核心是A、強化了RMSprop算法B、強化了動量梯度算法C、同時使用Momentum和RMSprop算法D、沒有核心答案:C76.年Rumelhart等人發展了()理論A、BP算法B、求偏導C、激活函數D、前向算法答案:A77.比()好用的激活函數是tanh函數(雙曲正切函數)A、cosh函數B、Sigmoid函數C、RELU函數D、cosx函數答案:B78.圖像處理時,給定輸入圖像,在輸出圖像中每一個像素是輸入圖像中一個小區域中像素的加權平均,其中權值由一個函數定義,這個函數稱為()A、被卷積數據B、卷積核C、步長D、填充答案:B79.面部識別軟件還有其他幾個用途:()、取款身份驗證、計算機安全等A、消除投票欺詐B、身份證認證C、互聯網D、銀行答案:A80.以下哪個是長短期記憶網絡的縮寫A、LSTMB、GRUC、CNND、RNN答案:A81.對y=sigmoid(x)函數對x的導數可以寫成A、y(1+y)B、exp(-x)C、1-exp(-x)D、y(1-y)答案:D82.關于正則化,說法錯誤的是:A、過擬合可以通過正則化方式消除B、常用的正則化方式由L1,L2,以及dropoutC、欠擬合可以通過正則化方式消除D、正則化是損失函數的一個補償項答案:C83.如果數據集大小為m,mini-batch的大小為A、1B、mC、大于mD、大于2,小于m答案:D84.()是深度學習訓練時的一種提高準確度的技術方法。英文全稱為“localresponsenormalization”A、本區域B、局部響應歸一化/標準化C、BP算法D、池化答案:B85.與Inception同年提出的優秀網絡還有(),它相比于AlexNet有更小的卷積核和更深的層級A、VGG-NetB、InceptionC、ResNetD、LeNet-5答案:A86.帶泄露的ReLU函數是指?A、Sigmoid函數B、tanh函數C、ReLUD、leakyReLU答案:D87.在Mnist庫的四個文件意義是:A、圖像集、訓練標簽集、測試集、測試標簽集B、原始集、訓練集、標簽集、測試集C、訓練集、訓練標簽集、測試集、測試標簽集D、圖像集、附加圖像集、測試圖像集、測試附加集答案:C88.非常經典的LeNet-5神經網絡其FC層處理完成以后,輸出的結果會再經過那一個激活函數輸出()?A、RelUB、sigmoidC、tanhD、sin答案:B89.Tf中,第一層卷積核W_conv1=variable([5,5,1,32]),第二層卷積核是:A、variable([5,5,1,32])B、variable([3,3,1,32])C、variable([5,5,4,8])D、variable([5,5,32,6])答案:D90.Inception是一個()層的深度網絡,它的質量是在分類和檢測領域進行了評估A、5B、8C、22D、152答案:C91.從sigmoid函數的圖像中可以看到,如果x稍微大點的話,其值接近為1,則在進行反向傳播算法的過程中對其求導的導數非常的接近0,因此會導致梯度為0的()的現象A、梯度消失B、梯度上升C、梯度下降D、梯度發散答案:A92.從上升速度來看所有的函數的,上升最慢的是A、線性函數B、指數函數C、冪函數D、對數函數答案:D93.Inception網絡中,一個5×5的卷積在計算成本上是一個3×3卷積的()倍。所以疊加兩個3×3卷積實際上在性能上會有所提升A、2.78B、2.87C、7.28D、8.72答案:A94.Tf.nn.dropout是TensorFlow里面為了防止或減輕過擬合而使用的函數,它一般用在()A、卷積層B、全連接層C、池化層D、激活函數層答案:B95.激活函數Sigmoid的值域范圍是在()之間A、0~1B、0~2C、-1~0D、-1~1答案:A96.Tensorflow中,tf.equal(tf.argmax(y_conv,axis=1),tf.argmax(y_,1))A、返回整數值B、返回布爾值C、返回浮點值D、返回字符答案:B97.一個數據集中有3萬條數據,關于數據集分配哪一項說法正確:A、訓練集數據可以分配1萬條B、測試集數據可以分配1000條C、可以不設置訓練集D、可以不設置驗證集答案:D98.RMSprop算法的特點是A、指數加權平均數求和B、指數加權平均數先平方再開方C、指數加權平均數求微分D、指數加權平均數求均方誤差答案:B99.Alex在2012年提出的()網絡結構模型引爆了神經網絡的應用熱潮,并贏得了2012屆圖像識別大賽的冠軍,使得CNN成為在圖像分類上的核心算法模型。AlexNet該模型一共分為八層,5個卷積層,,以及3個全連接層A、LeNetB、AlexNetC、VGGD、ResNet答案:B100.范數簡稱F-范數,是一種矩陣范數,記為()A、||*||FB、||·||FC、||-||FD、F||·||答案:B101.Batch歸一化步驟不包括A、求每個訓練批次數據的均值B、求每個訓練批次數據的方差C、使用求得的均值和方差對該批次的訓練數據做歸一化,獲得0-1分布D、求每個訓練批次的和答案:D102.研究發現Inception-ResNet模型可以在更少的epoch內達到更()的準確率A、低B、高C、先高后低D、不確定答案:B103.步長張量strides=[1,2,2,1]能橫向縱向移動A、1像素B、2像素C、3像素D、4像素答案:B104.局部響應歸一化即(),LRN一般是在激活、池化后進行的一中處理方法A、本區域B、localresponsenormalizationC、BP算法D、池化答案:B105.如果拋一個硬幣,拋一次算一個事件結果;拋兩次算一個事件結果;他們是A、一個概率空間B、兩個概率空間C、一個樣本空間D、一個概率空間,兩個事件答案:B106.語句euclideanmetric的意思是?A、歐幾里得B、歐幾里得度量C、歐幾里得范數D、歐幾里得空間答案:B107.縮寫ArtificialIntelligence是指A、AOB、AIC、ALD、AN答案:B108.卷積神經網絡中,全連接層中,需要修改權重,修改的依據是:A、梯度反向傳播B、梯度正向傳播C、與梯度無關D、與損失函數無關答案:A109.特征臉方法利用()進行降維和提取特征A、次分量分析B、主分量分析C、主次分量分析D、矢量分析答案:B110.F=tf.Variable([[2.,5.,4.],[1.,3.,6.]]),tf.reduce_sum(f,axis=1)的值是A、[10.,11.]B、[10.,10.]C、[11.,11.]D、[11.,10.]答案:D111.下面能夠實現激活函數操作的語句是:A、h_conv1=tf.nn.relu(conv_ret1)B、h_conv1=tf.nn.dropout(conv_ret1)C、h_conv1=tf.nn.lrn(conv_ret1)D、h_conv1=tf.nn.l2_loss(conv_ret1)答案:A112.RMSprop相比Momentum,可以選擇更大的()A、損失函數B、學習率C、激活函數D、樣本集答案:B113.Tf在圖像處理的4維度張量,按照次序,它的意義是:A、batch、height、weight、channelB、height、weight、channel,batchC、batch、height、width、channelD、channel、height、weight、batch答案:C114.A=tf.Variable(8.1)Sess.run(tf.assign_add(a,1))A的值是:A、8.1B、8.2C、9.1D、7.1答案:C115.在jupyternotebook中使用()以交互模式打開獨立的GUI窗口,對同一個figure的繪制都自動刷新到對應的GUI窗口A、%matplotlibinlineB、matplotlibinlineC、%mptinlineD、%inline答案:A116.編碼器-解碼器模式屬于以下哪種模式?A、一對一B、一對多C、多對一D、多對多答案:D117.Sigmoid激活函數的導數范圍是()A、(0,0.1]B、(0,0.2]C、(0,0.25]D、(0,0.5]答案:C118.“熊貓方式”和魚子醬方式的選擇主要是通過什么決定的A、計算機資源的充足與否B、測試集數量C、訓練集數量D、隱藏層數量答案:A119.深度卷積神經網絡中,()提取的特征往往是比較簡單的(如檢測點、線、亮度)?A、深層B、淺層C、最后幾層D、所有層答案:B120.激活函數tf.nn.relu能A、用于卷積后數據B、用于卷積核C、用于步長D、不能用到全連接層答案:A121.張量Tensor通常是操作()維數組進行傳送,形象地描述為從流圖的一端流動到另一端,即TensorFlow的組成A、NB、1C、0D、3答案:A122.(euclideanmetric歐幾里得度量)是一個通常采用的距離定義,在二維和三維空間中的歐氏距離就是兩點之間的實際()。A、誤差B、線段C、距離D、坐標答案:C123.經典的網絡LeNet-5第七層是全連接層Output.這個層共有10個節點分別代表輸出數字范圍是()A、0和9B、0*9C、0到9D、0到10答案:C124.Batch歸一化在神經網絡中的作用不包括A、減少了隱藏值分布變化的數量B、減少了輸入值改變的問題C、有輕微的正則化效果D、增加了輸入值改變的問題答案:D125.面部識別系統對面孔進行測量,并生成一個面紋,即面部的唯一數字代碼。每個面紋都存儲為一個()字節的文件。系統可以用每分鐘幾千萬張面孔的速度對內存中的面紋數據進行匹配A、48B、84C、148D、841答案:B126.函數tf.log(),該函數返回的是一個()A、向量B、張量C、矢量D、范數答案:B127.在人臉檢測系統中,如函數caffe.set_mode_gpu()的含意是設置為什么模式?A、CPU模式B、GPU模式C、CPU+GPU模式D、TPU模式答案:B128.雙向循環神經網絡的英文縮寫是?A、RNNB、SRNNC、TRNND、Bi-RNN答案:D129.關于空間,向量空間也稱為(),它是線性代數的中心內容和基本概念之一A、線性空間B、內積空間C、賦范空間D、希爾伯特空間答案:A130.以下哪個余弦相似度值接近1?A、法國和意大利B、球和鱷魚C、體育和動物D、法國和足球答案:A131.函數tf.nn.relu的作用是?A、被卷積數據B、卷積核C、步長D、激活答案:D132.對于神經網絡中超參數調試方法正確的是A、隨機選擇點來試驗超參數效果B、當你給超參數取值時,另一個慣例是采用由精細到粗糙的策略。C、只調試容易的D、給定默認值即可答案:A133.在深度學習中,前向算法就是有了聯結權重w和()H(x)之后,就可以由前往后面層計算A、激活函數B、正弦函數C、余弦函數D、Sigmoid函數答案:A134.Batch歸一化和神經網絡中的什么功能類似A、reluB、dropoutC、sigmoidD、tanh答案:B135.Mini-batch指的是A、小批量梯度下降B、隨機梯度下降C、批量梯度下降D、小批量損失計算答案:A136.Relu()激活函數的作用是將大于0的數保持不變,小于()的數輸出為0A、-1B、0C、1D、x答案:B137.Session是Tensorflow為了控制,和輸出文件的執行的語句.運行session.run()可以獲得你要得知的運算結果,或者是你所要運算的部分通常要創建Session對象,對應的編程語句為:A、sess=tf.Session()B、sess.close()C、tf.add()D、tf.equal()答案:A138.在進入科學研究之前,第一步要對事物A、實驗準備B、下定義C、思想準備D、預測答案:B139.Tensorflow中,tensor=tf.constant([1,2,3,4,5,6,7,8]),sess.run(tf.reshape(tensor,[2,-1]))運行后,tensor的內容變成?A、[[1,2,3,4],[5,6,7,8]]B、[[1,2,3],[4,5,6,7,8]]C、[[1,2,3],[4,5,6],[7,8]]D、[[1,2],[3,4],[5,6],[7,8]]答案:A140.根據實際問題來建立(),然后對它來進行求解A、架構B、數學模型C、流程圖D、數據集答案:B141.雙曲正切函數指的是那一個函數?A、Sigmoid函數B、tanh函數C、ReLUD、leakyReLU答案:B142.輸入圖像有2個,經過10個卷積核卷積后,輸出圖像有()個A、2B、5C、10D、不確定答案:C143.關于歸一化確定,下列說法正確的是:A、通過中值和均值進行確定B、通過平均值和最小值確定C、通過方差和均值確定D、通過標準差和均值確定答案:C144.局部響應標準化,此該環節主要用于防止過擬合,簡稱是什么?A、本區域B、LRNC、BP算法D、池化答案:B145.從()、比較比對、逐漸逼近的循環過程就是建立數學模型A、測量B、校準C、回歸D、監督答案:A146.為了屏蔽一些不必要的警告和錯誤,常使用編程語句例如os.environ['TF_CPP_MIN_LOG_LEVEL']='2'主要作用是屏蔽什么?A、警告B、錯誤C、警告和錯誤D、反匯編過程答案:C147.神經網絡中超參數的調試中最重要的參數是A、mini-Batch的大小B、動量梯度下降的參數βC、學習率αD、隱藏層數目答案:C148.Tf.reshape(tensor,shape,name=None)函數的作用是將tensor變換為參數shape形式,其中的shape為一個()形式。-1所代表的含義是我們不用親自去指定這一維的大小,函數會自動進行計算A、矢量B、向量C、列表D、凸集答案:C149.數量積(dotproduct;scalarproduct,也稱為()是接受在實數R上的兩個向量并返回一個實數值標量的二元運算,它是歐幾里得空間的標準內積。A、平方差B、和差化積C、內積D、點積答案:D150.一個向量空間加上拓撲學符合運算的(加法及標量乘法是連續映射)稱為()A、拓撲向量空間B、內積空間C、矢量空間D、希爾伯特空間答案:A多選題1.深度學習的興起主要得益于三個方面的原因A、新方法的出現,為神經網絡深度的拓展解決了梯度彌散的問題;B、大量已標注數據的出現,為神經網絡的訓練做好了數據準備;C、GPU(圖形處理器)的使用,為卷積計算提供了高速解決方案D、深度學習等于人工智能答案:ABC2.關于正則化的正確說法有:A、要求在損失函數加正則化項B、是強制將w更新進行截止C、會減少過擬合D、會增加過擬合答案:ABC3.關于反向傳播算法,它也存在不足,其主要有:A、訓練時間較長B、完全不能訓練,訓練時由于權值調整過大使激活函數達到飽和C、易陷入局部極小值D、“喜新厭舊”。訓練過程中,學習新樣本時有遺忘舊樣本的趨勢答案:ABCD4.語句a=tf.Variable([1,2,3])和b=tf.Variable(a)這條語句:A、合法B、非法C、合法但a需要提前初始化D、合法但不夠安全答案:ACD5.Tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)意義:A、定義學習步長B、優化器C、交叉熵損失函數D、開始訓練答案:ABC6.如果是填充后求卷積,圖像尺寸不變化A、以0填充B、填充厚度為卷積核厚度減1的一半C、步長為1D、圖像尺寸變小答案:ABC7.Tensorflow中,哪些運算結果為TrueA、tf.equal(1.0,1)B、tf.equal(1.0,1.0)C、tf.equal(0,False)D、tf.equal(1,False)答案:ABC8.屬于卷積核K的參數是A、步長B、填充C、輸入通道D、輸出通道答案:CD9.下列屬于dropout特性的有:A、具有正則化功能B、具有激活函數功能C、常用于圖像處理D、機器學習算法答案:AC10.關于梯度消失,說法正確的是:A、可以通過激活函數防止梯度消失B、梯度消失對神經網絡無影響C、盡量避免梯度消失D、梯度消失反向傳播時,由于梯度值過小或消失的現象答案:ACD11.程序語句例如conv2d(input_d,filter_d,strides=[1,3,3,1],padding='SAME'),這條語句的含意理解為()?A、步長在高度方向和寬度方向均為3B、填充圖像邊緣,使圖像尺寸不變C、input_d是待卷積的數據D、進行卷積操作答案:ABCD12.哪些屬于序列數據A、語音識別B、情感分類C、機器翻譯D、DNA序列分析答案:ABCD13.Adam算法結合了()算法于一身A、RMSprop算法B、均方誤差C、Momentum算法D、交叉熵答案:AC14.對于矩陣A可以求逆,那么A必須A、是方陣B、行列式不為零C、任意矩陣D、行列式為1答案:AB15.語句tf.variables_initializer語句可以A、初始化一個變量B、初始化多個變量C、初始化全部變量D、初始化常量答案:ABC16.哪些是tensorflow的算術運算函數?A、add()B、subtract()C、multiply()D、div()答案:ABCD17.范數,在()、()及相關的數學領域,范數是一個函數,是矢量空間內的所有矢量賦予非零的正長度或大小。A、線性代數B、泛函分析C、腐蝕D、膨脹答案:AB18.語句t=tf.ones_like(a)的幾個意義是A、將t節點內容用a替換B、t節點對應張量維度和A相同C、t對應張量值為1D、a需要預先初始化答案:BCD19.Tf.nn.conv2d(x,W,name1=[1,1,1,1],name2='SAME')其中name1和name2對應單詞是:A、name1是strideB、name2是paddingC、name1是paddingD、name2是stride答案:AB20.人工智能是解決機器()的學科A、感知B、理解C、決策D、證明答案:ABC21.Momentum和RMSprop算法的特點是:A、RMSprop可以取更大學習率B、RMSprop是將指數平均值平方再開發C、RMSprop下降更好消除擺動D、RMSprop和Momentum都可以優化算法答案:ABCD22.Sigmoid函數的性質有哪些?A、將輸出數據壓縮到[0,1]集合范圍B、能解決非線性分類問題C、將負的權值映射到正值D、將正權值映射到負數答案:ABC23.(Non-maximumsuppression,NMS)的本質是?A、搜索局部極大值B、抑制非極大值元素C、尋找出最小值D、尋找出閾值答案:AB24.對數坐標下,在[a,b]區間隨機隨機均勻地給r取值的說法正確的是A、取最小值的對數得到a的值B、取最小值的對數得到b的值C、取最大值的對數得到a的值D、取最大值的對數得到b的值答案:AD25.在h_pool2_flat=tf.reshape(h_pool2,[-1,7*7*64])這條語句的意義有:A、卷積層的終極輸出是64幅圖B、卷積層輸出圖片size是7X7C、將64幅7X7張量改寫成一個向量D、h_pool2_flat是全鏈接層的輸入數據答案:ABCD26.在循環神經網絡中,LSTM有哪幾個門?A、輸入門B、遺忘門C、輸出門D、更新門答案:ABC27.語句tf.nn.dropout(h_fc1,keep_prob)的意義是A、停止某些節點更新B、保留百分率為keep_prob的節點更新C、在全鏈接層有效D、可以停止任意層節點更新答案:ABCD28.Inception網絡都是頂尖的網絡代表,Inception細分種類有那幾種?()A、Inceptionv1B、Inceptionv2C、Inceptionv3,Inceptionv4D、Inception-ResNet答案:ABCD29.以下可以處理Mnist數據集的分類算法有A、KNNB、邏輯回歸C、卷積神經網絡D、k-mean答案:ABC30.Tf中能實現兩個向量代數運算的語句是A、c=tf.greater(A,b)B、a=tf.subtract(A,b)C、b=tf.Equal(A,b)D、d=tf.matmul(A,b)答案:BD31.張量語句tf.concat()是:A、合并張量B、與張量維度有關C、實現代數運算D、輸入數據是一個張量答案:AB32.在tensorflow中,tf.reshape函數的參數是(tensor,shape,name=None),以下哪些描述是正確的?A、函數的作用是將tensor變換為參數shape形式B、其中的shape為一個列表形式C、name可省略D、-1所代表的含義是我們不用親自去指定這一維的大小,函數會自動進行計算答案:ABCD33.語句train_acc=accuracy.eval(feed_dict={x:batch[0],y_actual:batch[1],keep_prob:1.0})A、是訓練過程B、是測試過程C、輸入訓練集合D、輸入dropout比例答案:ACD34.通常所用的函數,可以描述為?A、一個集合B、一個映射C、一個概率空間D、一個線性空間答案:AB35.哪些是Tensorflow的RNN中關于cell的類A、BasicRNNCellB、BasicLSTMCellC、GRUCellD、MultiRNNCell答案:ABCD36.關于正則化,描述正確的是:A、正則化可以防止欠擬合B、正則化可以防止過擬合C、dropout具有正則化效果D、relu函數具有正則化效果答案:BC37.()變換在數字圖像處理中通常是對于圖像的()提取A、BGRB、歐氏距離C、骨架D、RGB答案:BC38.以下哪些tensorflow的函數可以對張量進行邏輯運算A、equal()B、not_equal()C、less()D、greater()答案:ABCD39.人工智能的的三個主要流派是指A、符號主義B、連接主義C、行為主義D、機器學習答案:ABC40.以下哪條tf語句能夠描述損失函數A、loss=tf.reduce_mean(tf.square(y-y_datA.)B、loss=tf.reduce_sum(tf.square(y-y_datA.)C、loss=tf.reduce_mean(tf.add(y,y_datA.)D、loss=tf.reduce_mean(tf.subtract(y,y_datA.)答案:AB41.通過試驗超參數的不同取值可以A、選擇對訓練集目標而言的最優解B、對于開發集而言的最優解C、超參搜索過程中最想優化的東西D、簡化參數調試答案:ABC42.在tensorflow平臺中,可以實現兩個向量內積運算的語句包括:A、tf.reduce_sumB、tf.multiplyC、tf.reduce_meanD、tf.norm答案:AB43.關于sigmoid函數,它的性質有什么?A、概率平均B、能解決非線性分類問題C、將負的權值映射到正值D、將正權值映射到負數答案:BC44.對于tf.nn.SoftMax函數,它可以:A、用于多類別分類B、映射到概率空間C、壓縮數據D、用于卷積層答案:ABC45.語句tf.transpose(x).eval()的意義是:A、對x進行轉置B、從tf環境中獲取x的數據交給python環境C、不對x轉置D、不能獲知x的內容答案:AB46.動量梯度下降算法是通過()和()控制梯度下降的A、平均值B、指數加權平均值C、學習率D、方差答案:BC47.語句a=np.array([1,2,3,45,22,100])S=tf.convert_to_tensor(A,name="sss")的正確斷言是:A、a是np指定的張量B、可以實現對tf張量的任意填充C、convert_to_tensor將a轉換成tf張量D、S是指向tf張量的結點答案:ABCD48.深度學習網絡的卷積部分的組成有A、卷積層B、RELUC、POOLING層D、pedding答案:ABC49.人臉檢測系統中,檢測出人臉后,可對人臉進行分析,獲得()等72個關鍵點A、眼B、口C、鼻D、輪廓答案:ABCD50.反向傳播算法的過程如下:A、初始化聯結權重Wij,對于輸入的訓練樣本,求取每個節點輸出和最終輸出層的輸出值B、對輸出層求取偏導數C、對于隱藏層求取偏導數D、求取輸出誤差對于每個權重的梯度,更新權重答案:ABCD51.信息熵是對概率空間的整個系統描述,這里的概率空間描述正確的是:A、包含全部樣本點B、可能有多種劃分C、是核函數D、解決線性分類問題答案:AB52.人臉檢測項目中,使用的圖片格式通常有那幾種?A、PNGB、JPGC、JPEGD、BMP答案:ABCD53.被譽為近代人工智能領域的三駕馬車的人物是:A、楊立坤YanLeCuB、辛頓C、BenGioD、比爾·蓋茨答案:ABC54.對于w_data=np.mat([[1.0,3.0]]).T生成的張量維度是A、維度是(2,1)的張量B、是向量,值為[1,3]C、是矩陣[[1],[3]]D、是向量[[1,3]]的轉置答案:ACD55.Sigmoid激活函數的用途是:A、解決非線性分類B、數據壓縮至(0,1)C、是核函數D、解決線性分類問題答案:AB56.語句中:tensorflow.truncated_normal(shape,mean,stddev)以下說法正確的是A、shape是張量形狀B、正態隨機數填充C、隨機數需截斷D、方差是stddev答案:ABC57.人臉檢測的圖片通常有那幾種類型?A、LIVE表示生活照;B、IDCARD表示身份證芯片照;C、WATERMARK表示帶水印證件照;D、CERT表示證件照片;答案:ABCD58.要抽象和展示MathematicalModel通常會使用()等方式A、數學符號B、數學式子C、程序D、圖形答案:ABCD59.以下哪些框架可以用于深度學習領域A、caffeB、torchC、tensorflowD、mxnet答案:ABCD60.在圖像處理中,在顏色RGB建立三維向量的距離空間,能A、實現顏色分類B、計算兩種顏色的差別C、計算兩個圖像差別D、與圖像內容有關答案:ABC判斷題1.損失函數,是個數量函數,張量維度為0A、正確B、錯誤答案:A2.對于概率空間一個任意劃分,其結果依然是概率空間。A、正確B、錯誤答案:A3.判斷:除了沖激函數,高斯函數的衰減速度最快。A、正確B、錯誤答案:A4.信息熵是針對有限個概率事件的。A、正確B、錯誤答案:A5.若沒有在超參數中作出正確的標尺決定,可以通過在均勻標出上選取多個數據進行彌補A、正確B、錯誤答案:A6.如果對多元數量函數求梯度,結果是個向量。A、正確B、錯誤答案:A7.Non-MaximumSuppression,簡稱NMS,理解為抑制不是極大值的元素,可以理解為局部最大搜索A、正確B、錯誤答案:A8.處理分類問題一般用神經網絡,處理預測問題用線性回歸。A、正確B、錯誤答案:A9.不論多大的數據集,測試集數量必須保持在30%A、正確B、錯誤答案:B10.BP算法是由學習過程由信號的正向傳播與誤差的反向傳播兩個過程組成。由于多層前饋網絡的訓練經常采用誤差反向傳播算法,人們也常把將多層前饋網絡直接稱為BP網絡A、正確B、錯誤答案:A11.框架TensorFlow靈活的數值計算用于許多科學領域A、正確B、錯誤答案:A12.用sigmoid函數不能將運算映射到概率空間。A、正確B、錯誤答案:B13.風格遷移可以被卷積神經網絡不同激活的內部相互關系所捕捉到。A、正確B、錯誤答案:A14.在古典概率空間,其樣本點對應概率必須相等。A、正確B、錯誤答案:A15.張量維度或形狀,是用一個向量描述。A、正確B、錯誤答案:A16.RNN中,LSTM比GRU更加靈活。A、正確B、錯誤答案:A17.歐氏距離是一種很好的相似性度量標準A、正確B、錯誤答案:A18.實踐中,Batch歸一化通常和訓練集的mini-batch一起使用A、正確B、錯誤答案:A19.Batch歸一化簡化參數搜索問題A、正確B、錯誤答案:A20.在使用SOFTMAX函數時,是將運算結果從向量空間轉化到概率空間。A、正確B、錯誤答案:A21.Tf.summary.histogram()函數功能是輸出一個直方圖的SummaryprotocolbufferA、正確B、錯誤答案:A22.過擬合是指由于訓練樣本不足,導致測試結果不堪用A、正確B、錯誤答案:B23.RecurrentNeuralNetwork。神經網絡是一種節點定向連接成環的人工神經網絡A、正確B、錯誤答案:A24.BP網絡的輸入輸出關系實質上是一種映射關系:一個n輸入m輸出的BP神經網絡所完成的功能是從n維歐氏空間向m維歐氏空間中一有限域的連續映射,這一映射具有高度非線性。A、正確B、錯誤答案:A25.對于形如[[[],[]]]的張量,它的維度向量是[1,2,0]。A、正確B、錯誤答案:A26.深度學習的概念源于人工神經網絡的研究。含多隱層的多層感知器就是一種深度學習結構。深度學習通過組合低層特征形成更加抽象的高層表示屬性類別或特征,以發現數據的分布式特征表示A、正確B、錯誤答案:A27.Sigmoid函數是一個良好的閾值函數,連續,光滑,嚴格單調A、正確B、錯誤答案:A28.均方損失函數,是個數量函數,張量維度為1A、正確B、錯誤答案:B29.全連接層無法實現卷積運算,他們互有分工。A、正確B、錯誤答案:A30.Dropout具有歸一化功能A、正確B、錯誤答案:B31.Tf.argmax(vector,1):返回的是vector中的最大值的索引號,如果vector是一個向量,那就返回一個值,如果是一個矩陣,那就返回一個向量,這個向量的每一個維度都是相對應矩陣行的最大值元素的索引號A、正確B、錯誤答案:A32.損失函數中,基于信息熵的損失函數,與平方范數損失函數互有矛盾。A、正確B、錯誤答案:B33.用卷積實現圖像特征提取,就是借用共振原理。A、正確B、錯誤答案:B34.在一次學習問題中,只能通過一個樣本進行學習,以能夠認出同一個人。A、正確B、錯誤答案:A35.Padding(填充)屬性定義元素邊框與元素內容之間的空間A、正確B、錯誤答案:A36.Yolo采用一個CNN網絡來實現檢測,是單管道策略,其訓練與預測都是end-to-end,所以Yolo算法比較簡潔且速度快A、正確B、錯誤答案:A37.動量梯度下降法運行速度幾乎總是快于標準的梯度下降算法A、正確B、錯誤答案:A38.CBOW(連續詞袋)模型的特點是輸入已知上下文,輸出對當前單詞的預測A、正確B、錯誤答案:A39.在步長迭代運算中,連續函數與間斷函數比較,好處在于,能夠不間斷運算。A、正確B、錯誤答案:A40.T_scope()的含義是在另外一個命名空間來定義變量A、正確B、錯誤答案:A41.常見編碼中,ASC和Unicode的bit位相同。A、正確B、錯誤答案:B42.Print(sess.run(tf.sigmoid(a)))是邏輯回歸A、正確B、錯誤答案:B43.對于損失函數,有多種函數形式可以表達。A、正確B、錯誤答案:A44
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
- 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 聚乙烯醇海綿行業分析:高吸水性PVA海綿是最大的細分市場占51%的份額
- 2025年機器人產業人才發展報告-智聯研究院
- 生存秘籍:野外探險必修課
- 2025年互聯網醫療平臺在線問診服務質量與患者就醫體驗優化報告
- 智慧交通系統中的交通流量預測技術2025年應用創新報告
- 2025年公眾參與對環境影響評價工作流程的影響分析報告
- 即時配送行業配送路徑優化與成本控制:冷鏈物流解決方案報告
- 工業互聯網平臺IPv6技術升級在2025年工業互聯網平臺市場拓展與競爭挑戰報告
- 企業可持續發展目標(SDGs)在綠色能源與新能源開發中的應用報告
- 抖音平臺經紀人管理制度
- 滬教版五年級下冊數學期末試卷
- 充電樁工程施工方案
- 玻璃鋁板幕墻計算書鋼架計算雨棚計算
- 格魯夫給經理人的第一課-學習分享
- 先來先服務算法的實現-報告
- 全國民用建筑工程技術措施暖通空調動力
- 確認與驗證管理規程
- 中國陰道炎診治培訓課件
- GB/T 40475-2021冷藏保溫車選型技術要求
- GB/T 35446-2017紡織品某些有機溶劑的測定
- GB/T 1885-1998石油計量表
評論
0/150
提交評論