2024-2025華為ICT大賽(實(shí)踐賽)-昇騰Al賽道理論考試題庫(kù)-下(多選、判斷題)_第1頁(yè)
2024-2025華為ICT大賽(實(shí)踐賽)-昇騰Al賽道理論考試題庫(kù)-下(多選、判斷題)_第2頁(yè)
2024-2025華為ICT大賽(實(shí)踐賽)-昇騰Al賽道理論考試題庫(kù)-下(多選、判斷題)_第3頁(yè)
2024-2025華為ICT大賽(實(shí)踐賽)-昇騰Al賽道理論考試題庫(kù)-下(多選、判斷題)_第4頁(yè)
2024-2025華為ICT大賽(實(shí)踐賽)-昇騰Al賽道理論考試題庫(kù)-下(多選、判斷題)_第5頁(yè)
已閱讀5頁(yè),還剩241頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

VIP免費(fèi)下載

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

2024-2025華為ICT大賽(實(shí)踐賽)-昇騰Al賽道理論考試3.與ASIC芯片相比,以下哪些選項(xiàng)是FPGA芯片的特征?D、loT行業(yè)終端正確)。至于C選項(xiàng)的高級(jí)內(nèi)存復(fù)用,雖然在技術(shù)白皮書(shū)中有所提及,但在實(shí)際的服務(wù)列表中并未明確提供。因此,答案是A數(shù)據(jù)的維度。以下哪些是圖像特征提取和降低D、模式識(shí)別8.以下哪些是圖像處理的形式?()A、模型訓(xùn)練平穩(wěn)性.2)短時(shí)分析技術(shù)貫穿于語(yǔ)音信號(hào)分析的是B、C、D選項(xiàng)。解析:HiAI是面向移動(dòng)終端的AI能力開(kāi)放平臺(tái),它主要分為三個(gè)層次進(jìn)行要開(kāi)放能夠提供服務(wù)的AI能力,比如語(yǔ)音識(shí)別、圖像識(shí)別等,19.關(guān)于U-Net網(wǎng)絡(luò)相關(guān)的描述中,錯(cuò)誤的有哪幾項(xiàng)?B、U-Net網(wǎng)絡(luò)用滑動(dòng)窗口提供像素的周?chē)鷧^(qū)域(patch)作為輸入來(lái)預(yù)測(cè)每個(gè)像D、U-Net網(wǎng)絡(luò)應(yīng)用于生物醫(yī)學(xué)圖像處理領(lǐng)域,目標(biāo)輸出包括目標(biāo)類(lèi)別的位置,A選項(xiàng)描述的目標(biāo)輸出方式錯(cuò)誤;C選項(xiàng)提到的后接全將U-Net歸類(lèi)于強(qiáng)化學(xué)習(xí),也是錯(cuò)誤的。B選項(xiàng)描述正確。20.以下哪些項(xiàng)可以作為深度學(xué)習(xí)的優(yōu)化方法?21.語(yǔ)音合成方法有哪些?()A、共振峰合成器合成領(lǐng)域有著不同的應(yīng)用和特點(diǎn)。所以選項(xiàng)ABCD均正確。A、自動(dòng)學(xué)習(xí)D、多人數(shù)據(jù)標(biāo)注ycharmSDK、數(shù)據(jù)集自動(dòng)標(biāo)注、多人數(shù)據(jù)標(biāo)注等選項(xiàng)。這些服務(wù)可以幫助用戶(hù)更A、loT行業(yè)終端B、邊緣計(jì)算設(shè)備B、高偏差+低方差,可能造成欠擬合A、添加L1或L2正則懲訓(xùn)項(xiàng)ropout方法,隨機(jī)丟棄一部分輸入,能增加模型泛化能力。擴(kuò)充數(shù)據(jù)集,引入30.以下屬于決策樹(shù)主要構(gòu)建步驟的是哪些選項(xiàng)?A、I計(jì)算擎A、*算法B、API易用性封裝速A、CPU答案:ABC45.在深度學(xué)習(xí)中,以下哪些是常用的正則項(xiàng)?A、L1項(xiàng)(也稱(chēng)為L(zhǎng)1范數(shù))和L2正則項(xiàng)(也稱(chēng)為L(zhǎng)2范數(shù)或權(quán)重衰減)是兩種常用的數(shù)(如0或1),但這確實(shí)是一個(gè)數(shù)學(xué)上的不連續(xù)點(diǎn)。選項(xiàng)D指出ReLU無(wú)上界,布解析:見(jiàn)PPT435頁(yè)A、8連通解析:連通域分為4聯(lián)通、8聯(lián)通使用了TensorFlow的摸型,后來(lái)發(fā)現(xiàn)推理效果不好,然后使用MindSpore框架C、使用MindSpore訓(xùn)練的模型無(wú)需使用ATC(AscendTensorCompiler)工具進(jìn)行無(wú)需使用ATC(AscendTensorCompiler)工具進(jìn)行轉(zhuǎn)換。此外,對(duì)于AIPP的設(shè)67.當(dāng)使用機(jī)器學(xué)習(xí)建立模型的過(guò)程中,以下哪些屬于必備的操作?A、數(shù)據(jù)降維C、模型訓(xùn)練D、數(shù)據(jù)標(biāo)準(zhǔn)化D、有專(zhuān)門(mén)的接口可以刪除某個(gè)人臉集中的人臉數(shù)據(jù)答案:ACDD、Sigmoid的輸出并是以0為中心的非以0為中心。 C、L2正則化比L1正則化產(chǎn)生更加稀疏C、小批量梯度下降(MBGD),結(jié)合BGD與SGD的特性,每次選擇數(shù)據(jù)集中N個(gè)D、批量梯度下降(BGD),使用所有數(shù)據(jù)集中的樣本(共M個(gè)樣本)在當(dāng)前的梯更新權(quán)重參數(shù)。C選項(xiàng)描述的是小批量梯度下降(MBGD),它結(jié)描述的是批量梯度下降(BGD),它使用所有數(shù)據(jù)集中的樣本在當(dāng)前的梯度之和A、圖像分類(lèi)B、目標(biāo)檢測(cè)D、目標(biāo)跟蹤任務(wù)共同構(gòu)成了圖像識(shí)別的基礎(chǔ),涵蓋了從簡(jiǎn)單分類(lèi)A、請(qǐng)求URLA、32和10C、10和和33D、9和33元數(shù)量加上本層神經(jīng)元數(shù)量(如果考慮偏置項(xiàng))”。A選項(xiàng)(32*10+10=330)計(jì)算不符合,B選項(xiàng)(10*33=330)符合,C選項(xiàng)(33*10=330)符合,D選項(xiàng)(9*33=297)不符合。因此,正確答案是B和C,它們滿足參數(shù)總量的條件。B、卷積運(yùn)算的目的是提取輸入的不同特征,第一層卷積層可能只能提取一A、GETAPI中,請(qǐng)求方法用于指示對(duì)資源的操作類(lèi)型。A.GET方法用于請(qǐng)求訪問(wèn)已被UR定資源提交數(shù)據(jù),請(qǐng)求服務(wù)器進(jìn)行處理(例如提交表單或者上傳文件)。數(shù)據(jù)被104.下面哪些技術(shù)屬于圖像分割的應(yīng)用?C、目標(biāo)分割D、閾值分割105.以下哪些選項(xiàng)屬于正則化方法的有哪些選項(xiàng)?B、ReLU函數(shù)D、模式識(shí)別A、能力模型D、強(qiáng)化模型111.梯度下降法是一種常見(jiàn)的優(yōu)化算法,其特點(diǎn)包括以下哪幾項(xiàng)?A、多步迭代B、步長(zhǎng)會(huì)影響收斂性C、更新方向梯度的反方向D、更新方向梯度的同方向答案:ACD答案:ABD解析:Adam優(yōu)化器結(jié)合了Momentum和RMSprop的優(yōu)點(diǎn)。Momentum可以加速梯度下降,避免陷入局部最優(yōu)解;RMSprop則可以自適應(yīng)地調(diào)整學(xué)習(xí)率。Momentum為Adam優(yōu)化器提供了利用之前梯度信息加速收斂的特性。RMSpr器提供了自適應(yīng)調(diào)整學(xué)習(xí)率的能力。綜上所述,Adam優(yōu)化器可以看做是Moment114.在利用MindStudio連接Device進(jìn)行應(yīng)用開(kāi)發(fā)時(shí),Device的芯片層包含的解析:在MindStudio中,當(dāng)連接到Device進(jìn)行應(yīng)用開(kāi)發(fā)時(shí),Device的芯片層常用于定義和管理復(fù)雜的工作流程;B選項(xiàng)的“GE”(通用執(zhí)行環(huán)境)是運(yùn)行應(yīng)用所必需的底層環(huán)境;C選項(xiàng)的“TBE”(TensorBoostEngine)是針對(duì)AI推理115.以下哪些是MindSpore的優(yōu)點(diǎn)()122.jieba.cut方法的3個(gè)參數(shù)分別是()124.卷積神經(jīng)網(wǎng)絡(luò)通常包含以下哪些層?()low)ResNet_v1_101(圖像分類(lèi))/TensorFlow/Ascend9nsorFlow)EfficientNetB0/B4/B7/B8(圖像分類(lèi)/PyTorch)Res2Net_50(圖像分類(lèi)答案:ABCD127.以下哪幾項(xiàng)屬于MindSpore里的激活函數(shù)算子?答案:ACD128.下面有關(guān)AI應(yīng)用領(lǐng)域的描述正確的有哪些選項(xiàng)?和有限性(D選項(xiàng)正確),并且是一種離散性的隨機(jī)過(guò)程(C選項(xiàng)錯(cuò)誤)。B、直接從0BS讀取A、dam因此,所有列出的選項(xiàng)A到E都是ModeIArts所涵蓋144.思維鏈(CoT)提示通過(guò)引入中間推理步驟實(shí)現(xiàn)了復(fù)雜的推理能力,其中ZeB、無(wú)需人工設(shè)計(jì)示例C、更好的可擴(kuò)展性D、通用性強(qiáng)B選項(xiàng)正確,Zero-shot-CoT不需要人工耗費(fèi)精力去設(shè)計(jì)示例。C選項(xiàng)正確,其能在多種情況下適用,通用性更強(qiáng)。而A選項(xiàng)多數(shù)情況下效果優(yōu)于Few-shot-Co145.以下關(guān)于模型中參數(shù)與超參數(shù)的描述中,哪些選項(xiàng)是LETE等)、遵循HTTP協(xié)議的語(yǔ)義和規(guī)范、使用標(biāo)準(zhǔn)的URL來(lái)標(biāo)識(shí)和定位資源以147.昇騰芯片AI核有哪幾種計(jì)算資源?()T、DELETE等)來(lái)操作資源。Kerberos是一種網(wǎng)絡(luò)認(rèn)證協(xié)議,并非HTTP請(qǐng)求的ful規(guī)范的請(qǐng)求,它也不是一種請(qǐng)求方式;編碼(如JSON、XML)則是請(qǐng)求體或?yàn)樗皇钦?qǐng)求方式)、D(編碼,因?yàn)樗皇钦?qǐng)求方式),但B(Curl)和C(Rx可以應(yīng)用于自動(dòng)著色”不屬于其可能出現(xiàn)的問(wèn)題。綜上,答案是AC。B、高算力計(jì)算方面表現(xiàn)出更強(qiáng)的算力和更高的能效。它特點(diǎn)是具有較高的算力(B)和較A、傳感器的單元數(shù)B、灰度化D、傳感器的傳感性能A、返回值403說(shuō)明沒(méi)有操作權(quán)限。B、返回值500說(shuō)明請(qǐng)求失敗,在服務(wù)器上未找到請(qǐng)求所希望得到C、返回值400說(shuō)明語(yǔ)義有誤,當(dāng)前請(qǐng)求無(wú)法被服務(wù)器解析D、返回值401說(shuō)明當(dāng)前請(qǐng)求需要用戶(hù)驗(yàn)證解析:201-創(chuàng)建類(lèi)的請(qǐng)求完全成功204-請(qǐng)求成功400-非法請(qǐng)求。建議直接修改務(wù)端指出客戶(hù)端所提供的認(rèn)證信息不正確或非法403-沒(méi)有權(quán)限404-資源不存在解析:一個(gè)卷積神經(jīng)網(wǎng)絡(luò)主要由以下5種結(jié)構(gòu)組成:1.輸入層。2.卷積層。3.155.以下哪些選項(xiàng)可以創(chuàng)建全零常量Tensor?156.以下哪些選項(xiàng)是基于昇騰310的設(shè)備?()端訓(xùn)練場(chǎng)景;以及Atlas500型號(hào),面向云端推理場(chǎng)景。這些都是基于昇騰310A、CV計(jì)算機(jī)視覺(jué)A、certainty解析:這道題考察的是圖像翻拍檢測(cè)服務(wù)調(diào)用成功時(shí)標(biāo)簽suggestion的具體情ainty”表示不確定性,“TRUE”表示確認(rèn)是翻拍。注意“FAISE”值對(duì)選項(xiàng)的分析:A選項(xiàng)正確,因?yàn)殡p峰法確實(shí)是將圖像分成前景和背景兩部分,答案:ABCDD、擴(kuò)大模型規(guī)模答案:ABC解析:A選項(xiàng)模型剪枝通過(guò)去除模型中不重要的參數(shù)來(lái)減少內(nèi)存占用。B選項(xiàng)模型量化將模型的參數(shù)從高精度轉(zhuǎn)換為低精度表示,可降低內(nèi)存需求。C選項(xiàng)知識(shí)蒸餾可以將復(fù)雜模型的知識(shí)傳遞給較小的模型,從而實(shí)現(xiàn)壓縮和減少內(nèi)存占用。D選項(xiàng)MoE壓縮也是一種有效的模型壓縮技術(shù)。這些方式都可以在不同程度上幫助減少模型部署時(shí)的內(nèi)存占用,所以答案為ABCD。答案:ABCD168.MindSpore目前支持多種常用的數(shù)據(jù)增強(qiáng)算子,其中c_transforms模塊可以實(shí)現(xiàn)以下哪幾種功能?解析:這道題考察的是對(duì)MindSpore框架中c_transforms模塊功能的了解。在量子計(jì)算機(jī)上運(yùn)行。常見(jiàn)的通用量子算法包括Shor算法、HHL算法和Grover算選項(xiàng)A≥0.4MPa,這是一個(gè)特定場(chǎng)景下的壓力控制要求,不屬于通用量子算法的A、當(dāng)前時(shí)間解析:AK方式登錄是指使用訪問(wèn)密鑰(AK/SK)進(jìn)行登錄鑒權(quán),需要在登錄時(shí)填寫(xiě)A171.如果深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)出現(xiàn)了梯度消失或梯度爆炸問(wèn)題我們常用的解決方法為.答案:ACD解析:這道題考察的是深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中梯度問(wèn)題的解決方法。梯度消失或爆炸是訓(xùn)練深度網(wǎng)絡(luò)時(shí)的常見(jiàn)問(wèn)題。為梯度剪切能有效控制梯度大小,防止爆炸;使用Relu激活函數(shù)能避免梯度消失;正則化雖主要用于防止過(guò)擬合,但也能間接影響梯度。隨機(jī)欠采樣主要用于處理數(shù)據(jù)不平衡問(wèn)題,與梯度問(wèn)題無(wú)直接關(guān)系。172.ModeIArts訓(xùn)練作業(yè)支持哪些算法引擎()A、TensorFlow答案:ACD解析:ModeIArts支持的算法引擎有TensorFlow、PyTorch、PySpark、XGBoost173.在構(gòu)建好神經(jīng)網(wǎng)絡(luò)net后,使用miB、升騰310C、升騰910type代表標(biāo)簽的類(lèi)別,一般包括場(chǎng)景(scene)、物體(object)、概念(concept)等不同類(lèi)型的標(biāo)簽。根據(jù)提供的選項(xiàng),正確的是B和C選項(xiàng)。因此,本題答案選擇BC。182.使用裝有Atlas300加速卡的服務(wù)器編譯運(yùn)行程序時(shí)需要檢查哪些條件A、完成Atals驅(qū)動(dòng)安裝B、已安裝Cmake編譯工具C、已安裝CUDA軟件包解析:這道題考察的是使用裝有Atlas300加速卡的服務(wù)器編譯運(yùn)行程序所需條些選項(xiàng)是正確的?A、softmax函數(shù)又稱(chēng)作歸一化指數(shù)函數(shù)B、Softmax回歸模型是解決二分類(lèi)回歸問(wèn)題的算法C、是二分類(lèi)函數(shù)sigmoid的推廣D、softmax函數(shù)經(jīng)常與交叉熵?fù)p失函數(shù)聯(lián)合使用且總和為1,因此也被稱(chēng)作歸一化指數(shù)函數(shù)。在分類(lèi)任務(wù)中,softmax函數(shù)經(jīng)常與交叉熵?fù)p失函數(shù)聯(lián)合使用,以提高模型的訓(xùn)練效率。而softmax回歸模型實(shí)際上是解決多分類(lèi)問(wèn)題的算法,不是二分類(lèi)。A、P30答案:ACDD、像人一樣行動(dòng)答案:ABCDD、GECore中的Session管理A、0ptimizersptimizers)和編譯(compile)。-優(yōu)化器(0ptimizers)是用于設(shè)置模型的優(yōu)A、Tensorflow計(jì)算非常簡(jiǎn)單,只需對(duì)輸入進(jìn)行非線性變換,輸出為輸入值(輸入>0)或0(輸入≤0),這解釋了B選項(xiàng)的正確性。其次,ReLU在正區(qū)間內(nèi)梯度恒為1,有效A、GPU解析:PyTorch提供的Tensor數(shù)據(jù)結(jié)構(gòu)可以在不同硬件上加速計(jì)算,其中的Tensor支持在GPU和CPU上進(jìn)行計(jì)算。因此,正確答案是A.GPU和B.CPU。201.以下哪些選項(xiàng)是人工智能深度學(xué)習(xí)框架?ert:BERT(BidirectionalEncoderRepresentationsfromTransformers)由AlexKrizhevsky等人在2012年提出,并在當(dāng)年的ImageNet圖像識(shí)別競(jìng)賽中解析:達(dá)芬奇架構(gòu)是華為推出的一種面向AI計(jì)算場(chǎng)景的處理器架構(gòu),主要用于提升其AI產(chǎn)品的性能和能效。根據(jù)這個(gè)知識(shí)背景,我們可以分析每個(gè)選項(xiàng):A.Ascend.310是華為的一款A(yù)I加速模塊,它使用了達(dá)芬奇架構(gòu),專(zhuān)為AI推理和架構(gòu),而不是達(dá)芬奇架構(gòu)。C.Ascend910是華為的另一款A(yù)I處理器,同樣采用了達(dá)芬奇架構(gòu),專(zhuān)注于提供高性能的AI計(jì)算。D.Kunpeng920也是華為的一款服構(gòu)的產(chǎn)品是Ascend.310和Ascend910,對(duì)應(yīng)選項(xiàng)A和C,所以答案是AC。209.ATC模型轉(zhuǎn)換中的參數(shù)一般包括以下哪些選項(xiàng)?A、輸入數(shù)據(jù)維度B、輸入數(shù)據(jù)的順序D、模型所屬的框架的順序?qū)τ谀承┠P?如時(shí)間序列模型)至關(guān)重要,因此也是轉(zhuǎn)換過(guò)程中需要考D、模型連接(ModeIConnection)LangChain框架中,鏈?zhǔn)嵌鄠€(gè)組件的集合,這些組件共同執(zhí)行一系列任務(wù),形成一個(gè)完整的流程。B.模型輸入/輸出(Modell/0):這個(gè)組件負(fù)責(zé)將輸入數(shù)據(jù)格解析:VGG19包含了19個(gè)隱藏層(16個(gè)卷積層和3個(gè)全連接層)從而在測(cè)試集上表現(xiàn)不佳。因此,正確答案是ABC。213.2018年10月10日,華為發(fā)布了全棧全場(chǎng)景AI解決方案.華為全棧方案具體包括?解析:華為全棧全場(chǎng)景AI解決方案是指包含了華為自主研發(fā)的芯片、算法、框的安平使能、算法的昇騰系列AI芯片和MindSpore深度學(xué)習(xí)框架等四個(gè)部分。屬于ModeIArts中自動(dòng)學(xué)習(xí)的功能?D、自動(dòng)調(diào)參E自動(dòng)壓縮D、自定義語(yǔ)音合成平臺(tái)解析:華為HAIService主要提供與AI服開(kāi)信息,HAIService確實(shí)包括快服務(wù)智慧平臺(tái)(HAG)以及小藝對(duì)話開(kāi)發(fā)平臺(tái),能圖表識(shí)別平臺(tái)并不屬于華為HAIService提供的標(biāo)準(zhǔn)平臺(tái)范疇。因此,選項(xiàng)A和C是正確的,選項(xiàng)B和D則不正確。所以答案是AC。包括功能模塊,如FusionEngine(融合引擎)和CCE算子庫(kù)(計(jì)算庫(kù)),這些221.華為快應(yīng)用IDE的功能包括哪些?()A、開(kāi)發(fā)頁(yè)面或卡片C、構(gòu)建和打包B、RMSprop優(yōu)化器C、Adam優(yōu)化器A、DSL其中,DSL(DomainSpecificLanguage,領(lǐng)域特定語(yǔ)言)允許用戶(hù)以更直觀、接ctionKit)是華為提出的張量指令集,旨在提升AI計(jì)算效率,也支持自定義算子的開(kāi)發(fā)。而TVM(TensorVirtuaIMachine)雖然是一個(gè)強(qiáng)大的深度學(xué)習(xí)編譯器堆棧,但它并不直接針對(duì)TBE的自定義算子開(kāi)發(fā)。Caffe則是一個(gè)較老的深度學(xué)習(xí)框架,與TBE的自定義算子開(kāi)發(fā)不直接相關(guān)。因此,正確答案是A和B。224.以下哪些選項(xiàng)屬于HMSCore提供的AI能力項(xiàng)“OCR”指的是光學(xué)字符識(shí)別(0pticalCharacterRecognition)相關(guān)的API,小小C、生成器也屬于可迭代的數(shù)據(jù)集類(lèi)型,其直接依賴(lài)Pythn的生成器類(lèi)型generatr返回?cái)?shù)據(jù),直至生成器拋出Stplteratin異常。eratorDataset`接口來(lái)加載不支持直接加載的數(shù)據(jù)集。B選項(xiàng)正確,可迭代的數(shù)答案:ABDA、梯度消失問(wèn)題B、過(guò)擬合問(wèn)題D、梯度爆炸問(wèn)題244.以下哪些OpenCV函數(shù)可以用于處理坐標(biāo)變換?A、cv2.erode(image,kern解析:在0penCV中,處理坐標(biāo)變換主要涉及到圖像的幾何變換函數(shù)。選項(xiàng)A中的`cv2.warpAffine`函數(shù)是用于對(duì)圖像進(jìn)行仿射變換的,它接受一個(gè)變換矩陣M`和一個(gè)輸出圖像的大小`(w,h)`,可以對(duì)圖像進(jìn)行平移、旋轉(zhuǎn)、縮放等操作,因此A選項(xiàng)是正確的。選項(xiàng)B中的`cv2.erode`函數(shù)是用于圖像腐蝕的,它屬于形態(tài)學(xué)變換,而不是坐標(biāo)變換,所以B選項(xiàng)是錯(cuò)誤的。選項(xiàng)C中的`cv2.flippicture`并不是O0penCV中的標(biāo)準(zhǔn)函數(shù),可能是一個(gè)誤寫(xiě)或虛構(gòu)的函數(shù),因此項(xiàng)是錯(cuò)誤的。選項(xiàng)D中的`cv2.flip`函數(shù)可以用于翻轉(zhuǎn)正確答案是AD。A、RMSprop優(yōu)化器可以解決Adagrad優(yōu)化器過(guò)早結(jié)束的問(wèn)題解析:RMSprop優(yōu)化器很好的解決了Adagrad優(yōu)化器過(guò)早結(jié)束的問(wèn)題,很合適處246.語(yǔ)音信號(hào)的時(shí)域參數(shù)包括哪些()A、短時(shí)能量B、短時(shí)過(guò)零率247.John在使用MindSpore訓(xùn)練模型時(shí),想要將模型保存在本地文件中,以下選項(xiàng)中能實(shí)現(xiàn)他想法的選項(xiàng)有哪些?FrommindspCheckpointConfig(save_checkpoint_seconds=30,keepchecB、每隔30秒保存一個(gè)CheckPoint文件且每隔32個(gè)step保存一個(gè)CheckPointC、每隔32個(gè)step保存一個(gè)CheckPoint文件,且最多保存10個(gè)CheckPointA、期望為0B、期望為1C、方差為0D、方差為1個(gè)重要概念,其方差固定為1,表示數(shù)據(jù)的離散程度;期望(均值)為0,代表259.以下關(guān)于數(shù)據(jù)預(yù)處理的描述中,哪些選項(xiàng)是正確的?A、數(shù)據(jù)清理包含填充缺失值,發(fā)現(xiàn)并消除噪聲數(shù)據(jù)及異常點(diǎn)。B、數(shù)據(jù)降維簡(jiǎn)化數(shù)據(jù)屬性,避免維度爆炸。C、數(shù)據(jù)標(biāo)準(zhǔn)化通過(guò)標(biāo)準(zhǔn)化數(shù)據(jù)來(lái)減少噪聲,以及提高模型準(zhǔn)確性。D、機(jī)器學(xué)習(xí)最后輸出的結(jié)果需要借助模型,因此訓(xùn)練模型比數(shù)據(jù)預(yù)處理更重要。解析:這道題考察的是對(duì)數(shù)據(jù)預(yù)處理的理解。數(shù)據(jù)預(yù)處理是機(jī)器學(xué)習(xí)項(xiàng)目中非常關(guān)鍵的一步。數(shù)據(jù)清理確實(shí)包含填充缺失值,發(fā)現(xiàn)并消除噪聲數(shù)據(jù)及異常點(diǎn),這是保證數(shù)據(jù)質(zhì)量的重要步驟。數(shù)據(jù)降維可以簡(jiǎn)化數(shù)據(jù)屬性,避免維度爆炸,提高計(jì)算效率。數(shù)據(jù)標(biāo)準(zhǔn)化通過(guò)調(diào)整數(shù)據(jù)范圍,可以減少噪聲,有助于提高模型準(zhǔn)確性。雖然訓(xùn)練模型很重要,但數(shù)據(jù)預(yù)處理同樣關(guān)鍵,它直接影響到后續(xù)模型訓(xùn)練的效果和準(zhǔn)確性,因此D選項(xiàng)表述有誤。260.下列哪些是關(guān)鍵詞提取的方法?()解析:TF-IDF,TextRank,主題模型算法(LSA、LSI、LDA),HMM隱馬爾可夫模型一般用于生成序列,例如語(yǔ)音識(shí)別、詞性標(biāo)注、分詞261.圖像的目標(biāo)檢測(cè)算法需要完成()?(多選)A、目標(biāo)類(lèi)別的判斷B、置信度的計(jì)算C、目標(biāo)邊緣的計(jì)算D、目標(biāo)位置的計(jì)算斷和置信度的計(jì)算。因此,是ABC。圖像的目標(biāo)檢測(cè)算法主要是對(duì)輸入圖像進(jìn)行262.以下哪些是隱藏單元?C、Logisticsigmoid與雙曲正解析:Https:///qq_36182852/article/details/106735696整流263.基于華為云0CR服務(wù),企業(yè)可以以實(shí)現(xiàn)以下哪些業(yè)務(wù)?A、合同錄入與審核D、貓狗圖片分類(lèi)門(mén)診檢驗(yàn)報(bào)告單掃描錄入等。OCR(0pticalCharacterRecognition)用0CR服務(wù),企業(yè)可以將紙質(zhì)文檔中的文字轉(zhuǎn)換為數(shù)字形式,從而實(shí)現(xiàn)自動(dòng)化錄264.屬于jieba框架中的分詞方法的是?()解析:jieba是一個(gè)常用的中文分詞工具,在其框架中包類(lèi)型的分詞結(jié)果,常用于處理單行文本。C.Icut_for內(nèi)容,通過(guò)圖像的內(nèi)容生成多個(gè)描述標(biāo)簽,可應(yīng)用于哪A、模糊圖像的修復(fù)性TIK算子開(kāi)發(fā)方式與AutoSchedule機(jī)制是兩個(gè)相對(duì)獨(dú)立的概念,因此TIK算子開(kāi)發(fā)方式本身并不使用AutoSchedule機(jī)制來(lái)加速算子運(yùn)行效率。讓開(kāi)發(fā)者專(zhuān)注于AI應(yīng)用的創(chuàng)造隨機(jī)丟棄(或稱(chēng)為“失活”)神經(jīng)網(wǎng)絡(luò)中的一部分神經(jīng)元(及其連接)來(lái)減少模14.記錄像素的原始值為s,變化后的像素點(diǎn)的值為d,灰度變化的映射函數(shù)為d會(huì)實(shí)現(xiàn)對(duì)圖像整體的灰度拉伸,包括暗部和亮部;而當(dāng)016.Transformer結(jié)構(gòu)更適合用于處理計(jì)算機(jī)視覺(jué)的任務(wù),后18.統(tǒng)一身份認(rèn)證(IdentityandAccessManagemnet,簡(jiǎn)稱(chēng)IAM),IAM為華為云解析:統(tǒng)一身份認(rèn)證(IdentityandAccessManagement,簡(jiǎn)稱(chēng)IAM)是一種安全華為云EI企業(yè)智能服務(wù)器服務(wù)作為一個(gè)云服務(wù)產(chǎn)品,很可能采用了IAM來(lái)保證其服務(wù)的安全性和數(shù)據(jù)的保密性。通過(guò)IAM,華為云EI企業(yè)智能服務(wù)器服務(wù)可成較小的模型,同時(shí)保持相似的性能。在知識(shí)蒸餾過(guò)程中,教師網(wǎng)絡(luò)(大型、復(fù)雜的網(wǎng)絡(luò))的知識(shí)被提取并傳遞給學(xué)生網(wǎng)絡(luò)(較小的網(wǎng)絡(luò))。通過(guò)知識(shí)蒸餾,學(xué)理速度。解析:GRU(門(mén)控循環(huán)單元)確實(shí)在reset門(mén)為1且update門(mén)為0時(shí)會(huì)退化為一個(gè)標(biāo)準(zhǔn)的RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))。值化任務(wù)。()數(shù)據(jù),包含通道、高度和寬度),而非灰度圖像(即二維數(shù)據(jù))。所以,這里的與回歸樹(shù))而不是ID3樹(shù)。ID3樹(shù)是另一種決策樹(shù)算法,它使用信息增益來(lái)構(gòu)建29.使用Mindspore.nn.Conv2d(1,3,5,hasbias=False,weightinit='normal')接口,可以創(chuàng)建輸入通道數(shù)為1、輸出的通道數(shù)為5、卷積核大小為3*3、解析:輸出通道數(shù)為3、卷積核大小為5*5、使用normal算子初始化參數(shù)的卷s800和300解析:昇騰AI處理器中包含AICPU,負(fù)責(zé)控制整個(gè)AICore的運(yùn)算,并協(xié)同完成41.梯度下降算法是用于更新參數(shù),尋找損失函數(shù)的最小點(diǎn)。其收斂點(diǎn)解析:TensorFlow2.0完全支持tens解析:MindSpore在網(wǎng)絡(luò)訓(xùn)練過(guò)程中,batchsize過(guò)小時(shí),**不一定**不能47.傳統(tǒng)圖形處理算法相比深度學(xué)習(xí)算法在效果上有巨大差距,現(xiàn)在工業(yè)界已經(jīng)sorFlow2.0帶來(lái)了許多更新和改進(jìn),包括對(duì)API的精簡(jiǎn)和重構(gòu),以提高可用性49.在邊緣計(jì)算設(shè)備上部署AI應(yīng)用時(shí),所使用的神經(jīng)網(wǎng)絡(luò)模型越小越好。解析:在Adagrad優(yōu)化器中,初始的累計(jì)平方梯度可以為0,這是因?yàn)閷?duì)于每個(gè)參數(shù),累計(jì)平方梯度是逐漸累加的,初始化為0不會(huì)影響后續(xù)的計(jì)算。LU對(duì)輸出數(shù)據(jù)分布的影響,使得輸入和輸出的方差保持一致。57.Mindspore通過(guò)面向芯片的深度圖優(yōu)化技術(shù),同步等待少,最大化"數(shù)據(jù)-計(jì)算-通信”的并行度解析:MindSpore是一種面向AI應(yīng)用場(chǎng)景的開(kāi)發(fā)框架,專(zhuān)注于提供高效、易用59.雙峰法能夠自動(dòng)求取圖像的最佳分割闕值,適用于所有的灰度圖像二值化任過(guò)小時(shí),**不一定**不能矩陣,每個(gè)狀態(tài)對(duì)應(yīng)的觀察矩陣(這里對(duì)應(yīng)的76.知識(shí)圖譜表示的是概念與實(shí)體之間的關(guān)系網(wǎng)絡(luò),解析:參照PPT78.AscendCL提供的算子能力開(kāi)放,既可以用于自定義算子開(kāi)發(fā),也可以對(duì)現(xiàn)有79.使用ModeIArts模型轉(zhuǎn)換功能可以將Tensorflow模型轉(zhuǎn)換量化成tensorRT93.自然語(yǔ)言處理必須進(jìn)行詞性標(biāo)注。()94.在全連接神經(jīng)網(wǎng)絡(luò)中,卷積層中每一個(gè)神經(jīng)元只與前一層中部分神97.當(dāng)問(wèn)題的解決方案很復(fù)雜,或者問(wèn)題可能涉及到大量的數(shù)據(jù)解析:把語(yǔ)音(≤60秒)轉(zhuǎn)換成對(duì)應(yīng)的文字信息,適用于較短的語(yǔ)音交互場(chǎng)越多反向傳播的梯度會(huì)落入飽和區(qū),從而讓梯度的模越來(lái)越小,最終趨近于0,1正則項(xiàng)來(lái)懲罰模型的復(fù)雜度。權(quán)重衰減通常是指調(diào)整模型參數(shù)(如權(quán)重)以減110.一般來(lái)說(shuō),Sigmoid網(wǎng)絡(luò)在5層之內(nèi),就會(huì)產(chǎn)生梯度退化為0的現(xiàn)象,難以解析:HUAWEIHiAIEngine是華為提供的一個(gè)AI能力開(kāi)放平臺(tái),它允許開(kāi)發(fā)者將換后,數(shù)據(jù)才能被計(jì)算機(jī)用于進(jìn)一步的數(shù)字圖像處理,更廣泛的AI應(yīng)用場(chǎng)景,因此在某些細(xì)節(jié)和性能優(yōu)化上可能與NumPy的數(shù)據(jù)類(lèi)型有所不同。可以說(shuō),它們的基本概念不完全相同,尤其是在面向AI計(jì)算優(yōu)化的用了圖像分割的技術(shù)。()險(xiǎn)。在預(yù)測(cè)或評(píng)估階段,通常不使用dropout。121.昇騰AI應(yīng)用包含推理類(lèi)應(yīng)用、框架類(lèi)應(yīng)用(訓(xùn)練),其中推理類(lèi)應(yīng)用支持對(duì)解析:隱馬爾科夫模型簡(jiǎn)稱(chēng)HMM,他的狀態(tài)不能直接觀察到,但能通過(guò)觀測(cè)132.假設(shè)我們有一個(gè)數(shù)據(jù)集,給出了來(lái)自某城市房屋銷(xiāo)售的21613套住房的居住B、錯(cuò)誤134.Mindspore訓(xùn)練數(shù)據(jù)處理引擎核心是將訓(xùn)練樣本(數(shù)據(jù)集)高效,靈活的轉(zhuǎn)換至MindRecord,并提供給訓(xùn)練網(wǎng)絡(luò)用于訓(xùn)練。解析:將“MindSpore”修改為“MindSpore的”。解析:用于分詞的庫(kù)。四種常見(jiàn)的jieba分詞模式:精確地切開(kāi),適合文本分析;(不加參數(shù),默認(rèn)是精確模式)全模式:把句子I=True)paddle模式:利用PaddlePaddle深度學(xué)習(xí)框架,訓(xùn)練序列標(biāo)注(雙144.CANN中提供了DVPP和AIPP,前者使用昇騰AI處理器中的DVPP模塊對(duì)圖像騰處理器)、GPU(圖形處理單元)和CPU(中央處理器)。這意味著MindSpor還原一副灰度圖像的色彩。()數(shù)據(jù).換提取聲譜圖解析:見(jiàn)實(shí)驗(yàn)手冊(cè)ModeIArts實(shí)驗(yàn)簡(jiǎn)介部分解析:針對(duì)Atlas200DK,其開(kāi)發(fā)和運(yùn)行環(huán)境可以在同一個(gè)設(shè)備上,形成合設(shè)場(chǎng)解析:這道題正確,卷積層是卷積神經(jīng)網(wǎng)絡(luò)(CNN)的核心組成部分,用于提取190.K-折交叉驗(yàn)證最后可以使用k個(gè)模型最終的驗(yàn)證集的分類(lèi)準(zhǔn)確率的平均數(shù)作為k-折交又驗(yàn)證下分類(lèi)器的性能指標(biāo)。解析:這道題正確,因?yàn)樵贙-折交叉驗(yàn)證中,確實(shí)會(huì)使用k個(gè)模型在驗(yàn)證集上193.word2vce中計(jì)算相似度用的是

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論