2024年知識競賽-大數據智能辦公系統知識考試近5年真題集錦(頻考類試題)帶答案_第1頁
2024年知識競賽-大數據智能辦公系統知識考試近5年真題集錦(頻考類試題)帶答案_第2頁
2024年知識競賽-大數據智能辦公系統知識考試近5年真題集錦(頻考類試題)帶答案_第3頁
2024年知識競賽-大數據智能辦公系統知識考試近5年真題集錦(頻考類試題)帶答案_第4頁
2024年知識競賽-大數據智能辦公系統知識考試近5年真題集錦(頻考類試題)帶答案_第5頁
已閱讀5頁,還剩19頁未讀 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

(圖片大小可自由調整)2024年知識競賽-大數據智能辦公系統知識考試近5年真題集錦(頻考類試題)帶答案第I卷一.參考題庫(共100題)1.在scala中,以下哪些屬于動作算子()A、foreachB、reduceC、countD、map2.關于累加器,下面哪個是錯誤的()A、支持加法B、支持數值類型C、可并行D、不支持自定義類型3.SparkStreaming中的Dstream可以看作是在RDD上面又封了一層的數據結構4.伴生類和伴生對象說法正確?()A、單例對象與類同名時,這個單例對象被稱為這個類的伴生對象,而這個類被稱為這個單例對象的伴生類B、伴生類和伴生對象要在同一個源文件中定義C、伴生對象和伴生類可以互相訪問其私有成員D、不與伴生類同名的單例對象稱為孤立對象5.RDD中的所有轉換都是通過轉化算子延遲加載的,也就是說,它們并不會直接計算結果6.spark中的圖計算框架是()A、sparkcoreB、sparkstreamingC、mlbaseD、Grophx7.以下有關scala語言中的伴生類和伴生對象的說法,正確的是()A、單例對象與類同名時,這個單例對象被稱為這個類的伴生對象,而這個類被稱為這個單例對象的伴生類B、伴生類和伴生對象要在同一個源文件中定義C、伴生對象和伴生類可以互相訪問其私有成員D、不與伴生類同名的單例對象稱為孤立對象8.flume的source可以獲取哪些數據()A、某個端口的文本數據B、指定目錄內的數據變更C、基于http的數據源D、其他agent傳送過來的數據9.Flume有兩個主要的版本,目前使用的版本是哪個()A、NG版本B、OG版本C、DG版本D、MG版本10.有一段如下代碼,輸出結果那個選項正確varname=123;varage=22;varnameNew="字符操作測試"+name+ageprintln(name+age+"你好")println("你好"+name+age)println(nameNew)()A、145你好你好12322字符操作測試12322B、12322你好你好12322字符操作測試12322C、145你好你好145字符操作測試12322D、145你好你好145字符操作測試14511.在flume當中,基本的事務單位和基本存儲單位是?()A、agentB、eventC、sourceD、channel12.有關構造器的說法那些不正確?()A、下面直接在class后面申明的定義為類中的主構造器classUser(varx:Int,age:Int){}B、類可以有任意多個輔構造器C、每一個輔構造器必須先實現主構造器的方法D、像只有一個主構造器一樣,也只能有一個輔構造器13.以下哪個是flume中最小的運行單元?()A、agentB、eventC、sourceD、channel14.分發task任務是哪個節點的作用()A、masterB、driverC、workerD、application15.sparkSql不能夠連接jdbc16.在scala中對于以下2個列表的操作,那些說法說法正確vart=List(1,2,3)vart2=List(4,5)()A、vart3=t++t2得到List(1,2,3,4,5)B、vart3=List.concat(t,t2)得到List(1,2,3,4,5)C、vart3=t:::t2得到List(1,2,3,4,5)D、vart3=t.:::(t2)得到List(1,2,3,4,5)17.以下關于特質的說法錯誤的是?()A、類可以實現任意數量的特質。B、特質可以要求實現它們的類具備特定的字段、方法或超類。C、與Java接口(Interface)相同,Scala特質也可以提供方法和字段的實現。D、當將多個特質疊加在一起時,順序很重要——其方法先被執行的特質排在更后面。18.spark架構中的控制算子算子作用()A、使程序在內存中運行B、使程序觸發執行C、使程序具有一致性D、數據持久化19.sparkSql僅僅支持查詢原生的RDD,其他方式的查詢都不支持20.關于Scala中的trait和Java中的Interface描述錯誤的是?()A、Scala特質和Java接口都可以包含抽象方法和具體實現。B、Scala和Java都不允許多重繼承,但可以疊加多個特質或接口。C、Java只能在類層面上添加接口的實現,而Scala可以在類和對象層面上“混入”特質。D、Trait可以寫方法的實現21.sparkSql是基于hive的22.在scala語言中對于方法的定義以下說法正確的是()A、sorted將會把數組按升序進行重新排序B、sorted將會把數組按降序進行重新排序C、sortWith(_>_)表示降序排序D、sortWith(_23.以下單詞不可當做變量名的是()A、varB、valC、forD、hello24.2個數組,調用zip函數會將2個數組變成元組,這就是函數zip拉鏈的含義,請說出下列程序輸出結果為varkey1=Array("java","oracle","c++","dephile")vargrade1=Array(1,2,3,4)varclass2Grade=key1.zip(grade1)for(jA、(java,1)(oracle,2)(c++,3)(dephile,4)B、(1,java)(2,oracle)(3,c++)(4,dephile)C、(java,1,oracle,2,c++,3,dephile,4)D、以上答案都不對25.flume出現.BindException:?Cannot?assign?requested?address異常該怎樣解決()A、a1.sources.r1.type地址填寫錯誤B、a1.sources.r1.bind地址填寫錯誤C、a1.sources.r1.bin填寫錯誤D、以上都不對26.在scala中定義一個List,以下語法正確的是()A、vallist=List(4,7,3)B、vallist=List[Int](1,2,3)C、vallist=List[String](‘a’,’b’,’c’)D、vallist=List[Int]("a","b")27.以下選項屬于spark的運行模式的是()A、本地(local模式)B、stanalone模式C、yarn模式D、mesos模式28.scala中下面對于For循環打印出來說法正確的是?()A、for(i29.關于高階函數描述錯誤的是:()A、在程序中應該首先被定義的函數B、將函數作為參數其他函數的參數使用C、執行時間長的函數D、函數的方法體比較長30.Spark是基于內存計算的大數據并行計算框架。Spark基于內存計算,提高了在大數據環境下數據處理的實時性,同時保證了高容錯性和高可伸縮性31.在Flume中Agent組件使用()來運行FlumeA、zookeeperB、consumerC、producerD、JVM32.scala語言中,下面描述正確的是?()A、scala中,Float是Double的子類。B、scala中,Int是Long的子類。C、scala中,Double是AnyRef的子類D、scala中,Long是AnyVal的子類33.Spark支持Java、Python和Scala的API,還支持超過80種高級算法,使用戶可以快速構建不同的應用34.以下有關集合的說法中,其中正確的是()A、List集合中數據可以重復B、Set集合中數據可以重復C、Map集合是鍵值對的形式存儲的數據D、Set集合和List集合沒有區別35.SparkStreaming類似于ApacheStorm,用于流式數據的處理36.spark的運行模式有哪些?()A、javaB、pythonC、scalaD、go37.對于valprices=Map("book"->5,"pen"->2,"sticker"->1)結果說法錯誤的是?()A、prices("sticker")//等于1B、(prices+("shoes"->30))("shoes")?//等于30C、(prices-"pen")("book")//等于5D、prices("sock")//等于038.sparkSql可以訪問hive數據,并將其結果取回作為RDD使用39.spark本身沒有讀取hdfs數據的方法40.scala語言中,關于List的定義。不正確的是?()A、vallist=List(1,2,3)B、vallist=List[Int](1,2,3)C、vallist=List[String](‘a’,’b’,’c’)D、vallist=List[String]()41.flume在讀取文本文件的時候,一個文本數據是一個?()A、agentB、eventC、sourceD、float42.在HBase框架中,下面哪些選項被使用()A、HDFSB、GridFSC、ZookeeperD、EXT343.spark中的實時計算系統是哪個()A、spark?coreB、spark?streamingC、mlbaseD、Grophx44.Flume現在使用的是哪個版本()A、NG版本B、OG版本C、DG版本D、MG版本45.spark架構中的的cache算子想要正常使用,必須使用action算子觸發執行46.flume中的source組件是專門用來收集數據的47.hadoop中的hdfs實現底層是通過以下哪個選項實現的()A、block的劃分B、磁盤的copyC、數據的劃分D、磁盤的分裂48.saveAsText算子將數據集的元素以textfile的形式保存到HDFS文件系統或者其他支持的文件系統,對于每個元素,Spark將會調用toString方法,將它裝換為文件中的文本49.java中,關于數組的說法,哪幾個是正確的()A、數組的長度是固定的B、數組的長度是可變的C、數組可以存放不同的數據類型的數據D、數組只能存放單一的數據類型的數據50.以下關于driver的特性說法正確的是()A、foreachB、countC、mapD、flatmap51.List集合中的數值是有次序的52.以下哪個組件和Tachyon是類似的組件()A、hdfsB、yarnC、sparkD、mapreduce53.sparkSql可以讀取json格式的數據54.take算子返回一個由數據集的前n個元素組成的數組55.maven項目是通過pom.xml文件來進行依賴jar包的加載的56.使用zookeeper必須使用哪個版本之上的jdk()A、1.5B、1.6C、任何版本D、1.757.以下代碼輸出結果為Array(1,2,3,4,5).map(_*2).foreach(print(_))()A、2,4,6,8,10B、12345C、13579D、24681058.hive是shark的前身,shark是sparkSql的前身59.在scala中所有值類型的父類型是()A、AnyRefB、AnyValC、ObjectD、object60.關于java集合說法,哪幾個是正確的()A、List集合中數據可以重復B、Set集合中數據可以重復C、Map集合是鍵值對的形式存儲的數據D、Set集合和List集合沒有區別61.日志收集系統Flume現在使用的是哪個版本?()A、NG版本B、OG版本C、DG版本D、MG版本62.在Scala中,函數與類、對象一樣,關系為()A、一等公民B、函數高于類C、類高于函數D、以上都不對63.內存計算下,Spark?比?Hadoop?快10倍64.scala中,類和它的伴生對象說法錯誤的是()A、類和它的伴生對象定義在同一個文件中B、類和它的伴生對象可以有不同的名稱C、類和它的伴生對象的名稱必須相同D、類和它的伴生對象可以互相訪問私有特性65.對以下set集合進行操作"Set(2,0,1)+1+1-1"之后,最終的結果是()A、Set(2,0,1,1)B、Set(2,0,1)C、Set(2,0)D、已上均不正確66.worker組件在spark的任務調度中具有以下哪個作用()A、計算數據B、存儲數據C、運送數據D、心跳檢測67.spark切分完的partition的數量和block一致的68.zookeeper的默認端口號是()A、2181B、2180C、8888D、898969.以下組件哪個不是Flume的組成部分()A、sourceB、sinkC、channelD、topic70.以下關于scala語言中的函數的說法中,其中正確的是()A、一等公民B、可以獨立定義C、不能獨立定義D、函數不能賦值給變量71.spark中彈性分布式數據集指的是哪個()A、RDDB、DriverC、MasterD、Map72.spark使用Scala語言開發,代碼表現力強,封裝了大量高級運算API,極大提高數據處理的開發效率73.map算子返回一個新的RDD,該RDD由每一個輸入元素經過func函數轉換后組成74.下列哪個選中可以在Scala中在map操作做進行賦值()A、+!B、->C、=》D、add75.以下算子屬于執行算子的是()A、mapB、foreachC、flatmapD、join76.Scala中,如果沒有指定任何的修飾符,則默認為public77.列表A.:::(列表B)得到的新的列表,其中列表B的元素在列表A的前面78.用private關鍵字修飾,帶有此標記的成員僅在包含了成員定義的類或對象內部可見,同樣的規則還適用內部類79.以下可以作為消息組件的是()A、redisB、kafkaC、rabbitMQD、monggdb80.spark程序無法連接和訪問mysql中的數據81.mapreduce是基于()運行的計算框架A、內存B、磁盤C、內存加磁盤D、網絡82.DataFrame可以通過多種來源創建:()A、SparkConfB、SparkContextC、SQLContextD、SparkStreaming83.reduce求和輸出結果為varlist1=list1(1,2,3,4)varsum=list1.reduce(_+_)println(sum)()A、10B、1C、4D、以上答案都不對84.以下哪些是rdd的特性()A、cache算子是persist算子的一個子集B、persist算子是cache算子的一個子集C、persist算子包含cache算子D、cache算子包含persist算子85.Scala里,final修飾符的描述正確的是?()A、類的聲明上添加final修飾符確保成員不被子類重載B、類的聲明上添加final修飾符把整個類聲明為final,這個類不能被繼承C、類的聲明上添加final修飾符確保成員只能被子類重載一次D、以上說法都是錯誤的86.以下可以將數據持久化到硬盤的算子是哪個()A、foreachB、reduceC、persistD、map87.spark中的persist算子的源碼中具有哪些參數()A、心跳機制B、task的分發C、task的回收D、task執行情況的監測88.hdfs默認的備份數量()A、1B、2C、3D、489.當我們在scala語言中書寫for循環塊用到的關鍵字to與until說法正確的是()A、to:左閉右閉循環體中包括左邊與右邊的數值B、until:左閉右開循環體中包括左邊的數值,不包括右邊的數值C、until和to的不同之處在于不包括最后一個元素。D、to與until用法一致,包括循環次數也一樣90.spark中一個action算子對應一個()A、jobB、taskC、driverD、stage91.Scala是()和函數式編程結合的語言A、面向對象B、對象過程C、非純面向對象D、python92.對于scalafor循環塊用到的關鍵字to與until說法不正確的是()A、to:左閉右閉循環體中包括左邊與右邊的數值B、until:左閉右開循環體中包括左邊的數值,不包括右邊的數值C、until和to的不同之處在于不包括最后一個元素。D、to與until用法一致,包括循環次數也一樣93.Scala異常處理:()A、Case匹配的方式處理B、Throw出去C、拋插值器D、singleton=false94.使用scala語言編寫的源程序時的文件擴展名是:(.scala)95.zookeeper節點的特性()A、可以存儲數據B、不可以存儲數據C、可以計算數據D、可以協調數據96.java中的continue的作用是跳出當前循環97.卸載一個rpm包的命令為?rpm?-e?filename98.flume中的三大組件為source、channel、sink99.objectTest3{defadd(i:Int)(implicity:Int=100):Int=i+ydefmain(args:Array[String]):Unit={implicitvalabc:Int=300implicitvala:Int=300varadd2=add(2);println(add2)}}()A、5B、102C、103D、編譯出現錯誤,有2個相同類型的隱式值100.下列關于kafka說法正確的是()A、消息中間件B、日志收集系統C、實時計算

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論