




版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
PAGEPAGE1《Hadoop數據分析與應用》復習備考試題庫(附答案)一、單選題1.在啟動hadoop集群以后,查看jps進程有幾個?A、3個B、4個C、5個D、6個答案:D2.yarn-site.xml中參數和解釋不能對應的是()A、yarn.nodemanager.resource.memory-mb:定義在節點管理器總的可用資源,以提供給運行容器B、yarn.nodemanager.local-dirs:多條存儲路徑可以提高磁盤的讀寫速度C、Yarn.nodemanager.remote-app-log-dir-suffix:匯聚日志的地方,目錄路徑,HDFS系統D、yarn.nodemanager.aux-services:需要設置的MapReduce的應用程序服務答案:C3.當我們使用命令卸載jdk時直到出現什么提示才算卸載完成()A、SUCCEESSEDB、ectC、pleteD、End答案:C4.在搭建中ZooKeeper運行環境時,首先需要安裝什么運行環境?A、PythonB、CC、JavaD、Linux答案:C5.Hadoopfs中的-get和-put命令操作對象是A、文件B、目錄C、兩者都是D、以上都不對答案:C6.關于MapReduce的描述錯誤的是()A、MapReduce框架會先排序map任務的輸出B、通常,作業的輸入輸出都會被存儲在文件系統中C、通常計算節點和存儲節點是同一節點D、一個Task通常會把輸入集切分成若干獨立的數據塊答案:D7.CentOS7中卸載自帶的jdk使用以下哪個命令()A、rmp-qu|grepjdkB、rmp-qa|grepjdkC、yum-ydeletejava-1.*D、yum-yremovejava-1.*答案:D8.以下關于NameNode和DataNode的關系描述正確的是()A、NameNode是元數據節點,其中包含每個文件、文件位置以及這些文件所在的DataNode內的所有數據塊的內存映射,B、DataNode是元數據節點,它為讀寫請求提供服務以及按照NameNode的指令執行數據塊創建、刪除和復制。C、NameNode每個集群節點上均有一個從屬的NameNodeD、NameNode和DataNode沒有任何關系答案:A9.端口50070默認是Hadoop哪個服務的端口?()A、NameNodeB、DataNodeC、SecondaryNameNodeD、Yarn.答案:A10.在Hadoop中,下面哪個是默認的InputFormat類型,它將每行內容作為新值,而將字節偏移量作為key()A、FileInputFormatB、TextInputFormatC、KeyValueTextInputFormatD、FileOutFormat答案:B11.SecondaryNameNode是對主NameNode的一個補充,他會定期地執行對HDFS元數據的檢查點。當前設計僅允許每個HDFS只有()SecondaryNameNode節點。A、單個B、兩個C、三個D、四個答案:A12.哪個模塊負責HDFS數據的存儲?A、NameNodeB、DataNodeC、ZooKeeperD、JobTracker答案:B13.以下關于NodeManager描述正確的是()A、NodeManager是ResourceManager在每臺機器上的代理,負責容器管理;監控資源使用情況。B、NodeManager是DataNode在每臺機器上的代理,負責管理和監控資源使用情況。C、NodeManager是負責從Scheduler中申請資源,以及跟蹤資源的使用情況D、NodeManager實現了ApplicationMaster接口,負責接收新的任務。答案:A14.Hadoop2.X的版本中引入了雙namenode的架構,解決了什么問題?A、單點故障。B、多點故障。C、分分布式故障。D、偽分布式故障。答案:A15.Hadoop是一個用()語言實現的框架A、C語言B、PythonC、JavaD、R語言答案:C16.搭建好集群過后,可以輸入那個地址訪問集群的狀況?A、Master機器上的IP和50070B、Master機器上的IP和8080C、任意一個從機的IP和50070D、任意一個從機的IP和8080答案:B17.Hadoop完全分布模式配置免密登錄是要?A、實現主節點到其他節點免密登錄B、實現從節點到主節點的免密登錄C、主節點和從節點任意兩個節點之間免密登錄D、以上都不是答案:C18.上傳Hadoop壓縮文件到soft目錄下的命令為()A、tar-zxvfsoft/hadoop.2.7.3.tar.gzB、tar-zcvfsoft/hadoop.2.7.3.tar.gzC、tar-zvf/soft/hadoop.2.7.3.tarD、tar-zxvf/soft/hadoop.2.7.3.tar答案:A19.下列關于OSI網絡模型說法正確的是:A、物理層這一層主要傳輸一些十進制數據。B、鏈路層主要用于網絡傳輸。C、網絡層定義網絡協議,通信規則。D、會話層管理用戶的會話,控制用戶間邏輯的建立和中斷。答案:D20.格式化Hadoop的文件系統時,當系統提示格式化失敗時,可能出現的情況是()A、.dir和dfs.datanode.data.dir不存在B、.dir和dfs.datanode.data.dir有數據C、.dir.file和dfs.datanode.data.dir.file不存在D、.dir.file和dfs.datanode.data.dir.file有數據答案:B21.使用哪個命令可以查看安裝的jdk()A、rpm-qu|grepjdkB、yum-ls|grepjdkC、yum-la|grepjdkD、rpm-qa|grepjdk答案:D22.用什么命令可以將ZooKeeper文件遠程拷貝到其他機器?A、spcB、scpC、sendD、post答案:B23.以下哪一項不屬于Hadoop可以運行的模式()A、單機(本地)模式B、偽分布式C、互聯網模式D、分布式模式答案:C24.ZooKeeper中有一個觀察節點的概念,它的作用是什么?A、觀察數據的節點B、收集數據的節點C、指有投票權的跟隨者。D、指沒有投票權的跟隨者。答案:D25.下面屬于Hadoop特點的是()A、低價值密度B、低吞吐量C、高容錯D、高成本答案:C26.QJM在價格中的作用是作為共享存儲組件,它的作用主要是什么?A、主要解決單點故障。B、實現主備NameNode源數據的操作信息同步。C、解決網絡通信問題。D、解決數據傳輸問題。答案:B27.Hadoop的高效性指的是()A、Hadoop能夠自動保存數據的多個副本,并且能夠自動將失敗的任務重新啟動起來B、Hadoop能夠在節點之間動態地移動數據,并保證各個節點的動態平衡,因此處理速度非常快。C、Hadoop的按位存儲和處理數據的能力值得人們信賴D、Hadoop是在可用的計算機集簇間分配數據并完成計算任務答案:B28..MapReduce框架提供了一種序列化鍵/值對的方法,支持這種序列化的類能夠在Map和Reduce過程中充當鍵或值,以下說法錯誤的是A、實現Writable接口的類是值B、實現Writableparable接口的類可以是值或鍵C、Hadoop的基本類型Text并不實現Writableparable接口D、鍵和值的數據類型可以超出Hadoop自身支持的基本類型答案:C29.關于mapper類中map方法正確的是A、在MapReduce框架中執行一次B、在MapReduce框架中執行多次次C、執行map任務時在進行相關常量工作D、map方法中keyin表示行的文本內容答案:B30.哪種場景適用于HDFSA、存儲大量小文件B、實時讀取C、需經常修改數據D、流式讀取答案:D31.下面關于MapReduce中Drive類說法錯誤的是?A、Driver類是MapReduce作業需要的驅動程序B、Driver類沒有默認的父類C、Dirver類實現的大部分設置與job對象操作相關D、Driver類指數據庫連接驅動答案:D32.DataNode默認存放目錄為()A、/opt/hadoop-record/softB、/home/hadoop-record/dataC、/home/hadoop-record/softD、/opt/hadoop-record/data答案:D33.關于Multiplelnputs說法正確的是?A、Multiplelnputs用來處理簡單的文件B、Multiplelnputs處理二進制文件C、Multiplelnputs用來處理內容、格式不同的文件D、Multiplelnputs對象在org.apache.hadoop.mapreduce.lib.output包下答案:C34.下面的配置項配置在hadoop哪個配置文件?hadoop.tmp.dir/opt/temp/data/tmpA、core-site.xmlB、hdfs-site.xmlC、mapred-site.xmlD、yarn-site.xml答案:A35.下列關于分布式協調技術的說明正確的是。A、解決分布式環境中單個進程的控制。B、進程是運行在不同的服務器上。C、讓進程有序的去訪問某種資源,防止造成臟數據。D、讓進程有序的去訪問資源,達到數據分析。答案:C36.以下不屬于大數據時代呈現的趨勢的是()A、數據資源化將成為最有價值的資產B、大數據在更多傳統行業的企業管理落地C、數據將越來越開放,數據共享聯盟將出現D、大數據安全可能被忽視答案:D37.Mapper排序后的輸出將作為下面哪個的輸入()A、ReducerB、ShuffleC、SortD、Mapper答案:A38.Hadoop和新架構不包括()A、HDFS2B、HIveC、YARND、MapReduce答案:B39.Client在HDFS上進行文件寫入時,namenode根據文件大小和配置情況,返回部分datanode信息,誰負責將文件劃分為多個Block,根據DataNode的地址信息,按順序寫入到每一個DataNode塊A、ClientB、NamenodeC、DatanodeD、Secondarynamenode答案:A40.默認NameNode周期性從DataNode接收心跳信號的時間間隔為A、1sB、2sC、3sD、4s答案:C41.hadoop集群之間的機器是用過()協議來進行通信和協調工作的。A、HTTPB、HTTPSC、SSHD、ClientProtocol答案:C42.MapReduce是一種()模型A、面向對象模型B、編程模型C、MVC模型D、面向切面模型答案:B43.下列哪項通常是集群的最主要的瓶頸()A、CPUB、網絡C、磁盤IOD、內存答案:C44.下列哪項通常是集群的最主要瓶頸A、CPUB、網絡C、磁盤IOD、內存答案:C45.為了讓集群中的機器能夠正常通信,所有集群的IP必須設置成靜態IP,防止機器重啟之后而找不到機器的情況,那么IP地址配置需要修改那個文件()A、ifcfg-loB、network-functionsC、ifcfg-ens33D、network-functions-ipv6答案:C46.在MapReduce中,Map數取決于()的總量A、任務數B、輸入數據C、輸出數據D、以上都不對答案:B47.hdfs-site.xml中參數和解釋不能對應的是()A、.dir:是本地磁盤目錄NN存儲的是fsimage文件的地方B、node.handler.coun:t設置更多的NameNode線程,處理從DataNode發出的大量RPC請求C、dfs.datanode.data.dir:設置是本地磁盤目錄,HDFS數據應該存儲Block的地方D、dfs.replication:設置大型文件系統的HDFS的塊大小。答案:D48.下面那個不屬于全球首次劃分的大數據階段()A、大數據出現階段B、大數據熱門階段C、大數據時代特征階段D、大數據全覆蓋階段答案:D49.shuffle和sort輸出的key實現了下面哪個接口()A、WritableB、WritableparableC、ConfigurableD、parableWritable答案:B50.HDFS的Block默認保存幾份?A、3B、2C、1D、不確定答案:A51.啟動HDFS的命令是()A、start-dfs.shB、Start-yarn.shC、start-hdfs.shD、dfs-start.sh答案:A52.關于SecondaryNameNode哪項是正確的?A、它是NameNode的熱備B、它對內存沒有要求C、它的目的是幫助NameNode合并編輯日志,減少NameNode啟動時間D、SecondaryNameNode應與NameNode部署到一個節點答案:C53.進入到MapReduce目錄命令為()A、hadoopjarhadoop-mapreduce-examples-2.7.3.jarwordcount/hello/outB、hadoophadoop-mapreduce-examples-2.7.3.jarwordcount/helloC、hadoophadoop-mapreduce-examples-2.7.3.jarwordcount/hello/outD、hadoopjarhadoop-mapreduce-examples-2.7.3.jarwordcount/hello/home答案:A54.如何禁用reduce階段()A、設置conf.setNumreduceTasks(0)B、設置job.setNumreduceTasks(0)C、設置job.setNumreduceTasks(1)D、設置job.setNumreduceTasks()=0答案:B55.下列關于MapReduce說法不正確的是A、MapReduce是一種計算框架B、MapReduce來源于google的學術論文C、MapReduce程序只能用java語言編寫D、MapReduce隱藏了并行計算的細節,方便使用答案:C56.znode的4種類型的節點,下列名稱和說明對應正確的是。A、PERSISTENT:內存化化節點。B、PERSISTENT_SEQUENTIAL:順序內存化節點C、EPHHEMERAL:超時節點。D、EPHHEMERAL_SEQUENTIAL:臨時自動編號節點。答案:D57.關于SecondaryNameNode下面哪項是正確的A、它是NameNode的熱備B、它對內存沒有要求C、它的目的是幫助NameNode合并編輯日志,減少NameNode啟動時間D、SecondaryNameNode應與NameNode部署到一個節點。答案:C58.下列關于RPC說法正確的是。A、RPC是一種遠程調用協議B、它可以遠程操縱計算機上的進程C、需要了解底層網絡協議D、RPC通信之間不攜帶數據答案:A59.可以實現將本機公鑰拷貝給其他機器的命令是A、ssh-keygen-trsaB、ssh-copy-namerootlocalhostC、ssh-copy-id-irootlocalhostD、ssh-keygen-copy-namersa答案:C60.對于mapper類中的setup方法不正確的是?A、此方法被MapReduce框架僅且執行一次B、在執行map任務前,進行相關變量或者資源的集中初始化工作C、在執行map任務后,進行相關變量或者資源的集中初始化工作D、將資源初始化工作放在map方法中,導致程序運行效率降低答案:C61.ZooKeep中大多shell命令的行為,可以通過命令命令推測,下列說法正確的是。A、ls:顯示所有節點。B、create:創建一張表。C、get:獲取一個節點。D、set:設置一個節點。答案:A62.在MapReduce中,下面哪個階段是并行進行的()A、Shuffle和MapB、Shuffle和SortC、Reduce和SortD、Map和Sort答案:B63.在MapReduce中,下面哪個數據流的順序是正確的()a.InputFormatb.Mapperc.binerd.Reducere.Partitionerf.OutputFormatA、abcdfeB、abcedfC、acdefbD、abcdef答案:B64.下面哪個是一種編程模型,它將大規模的數據處理工作拆分成互相獨立的任務然后并行處理()A、MapReduceB、HDFSC、PigD、Hbase答案:A65.把公鑰追加到授權文件的命令是?A、ssh-copy-idB、ssh-addC、sshD、ssh-keygen答案:A66.當討論hdfs通信的時候,通信發生在以下服務之間,下列說法正確的是。A、Client-NameNode之間,其中NameNode是客戶端B、Client-DataNode之間,其中DataNode是客戶端C、DataNode-NameNode之間,其中NameNode是服務端D、DataNode-DataNode之間,其中DataNode都是客戶端答案:C67.在HadoopMapReduce框架中,任何值類型A、需要實現Writable接口B、需要實現parable接口C、需要實現Writableparable接口D、不需要實現任何接口答案:A68.HDFS退出安全模式使用的命令是?A、hadoopdfsadmin-saftmodewaitB、hadoopdfsadmin-saftmodeleaveC、hadoopdfsadmin-saftmodeenterD、以上都不正確答案:B69.HDFS默認的當前工作目錄是/user/$USER,的值需要在哪個配置文件內說明A、mapred-site.xmlB、core-site.xmlC、hdfs-site.xmlD、以上均不是答案:B70.大數據的特點不包括下面哪一項()A、巨大的數據量B、多結構化數據C、增長速度快D、價值密度高答案:D71.使用put操作將“hello”文件上傳到HDFS的根目錄命令為()A、hadoop-puthello/helloB、hadoopfs-puthello/helloC、hodoopfs-put/helloD、Hadoop-put/hello答案:B72.關于HDFS的文件寫入,正確的是A、支持多用戶對同一個文件的寫操作B、用戶可以在文件的任意位置進行修改C、默認將文件復制成三份存放D、復制的文件默認都存在同一機架上答案:C73.OSI網絡模型有幾層結構?A、六層B、七層C、八層D、九層答案:B74.Hadoop偽分布式是()A、一個操作系統B、一臺機器C、一個軟件D、一種概念答案:B75.MapReduce的存儲模型能夠存儲什么數據?A、文件數據B、二進制C、字符串D、任意格式答案:D76.MapReduce中的map階段的數據是由()決定的A、OutputFormatB、InputFormatC、FileInputD、FileOutput答案:B77.如果一個Hadoop集群中HDFS的默認大小是128MB,本地磁盤有個HDFS上的目錄包含100個純文本文件,每個文件200MB。如果使用TextInputFormat作為輸入格式類,將該目錄作為作業輸入,將會啟動()個Map。A、64B、100C、200D、640答案:C78.為銷售報表展示開發一個MapReduce作業,Mapper輸入數據的Key是年份(IntWritable),Value表示商品標識(Text)。下列哪一項決定該Mapper的數據類型?A、JobConf.setMapInputKeyClass與JobConf.setMapInputValuesClassB、HADOOP_MAP_DATATYPES環境變量C、隨作業一起提交的mapper-specification.xml文件D、InputFormat格式類答案:D79.啟動ZooKeeper服務的命令是什么?A、zk.shB、zkServer-all.shC、zkServer.shD、zkServer.shstart答案:D80.以下對定時調度器描述正確的是()A、定時調度器負責向應用程序分配資源,它負責監控和應用程序的狀態跟蹤,并且不能夠保證重啟由于應用程序本身或硬件出錯而執行失敗的應用程序B、定時調度器負責向應用程序分配資源,它負責監控和應用程序的狀態跟蹤,并且能夠保證重啟由于應用程序本身或硬件出錯而執行失敗的應用程序C、定時調度器負責向應用程序分配資源,它不負責監控和應用程序的狀態跟蹤,并且不能夠保證重啟由于應用程序本身或硬件出錯而執行失敗的應用程序D、定時調度器負責向應用程序分配資源,它不負責監控和應用程序的狀態跟蹤,并且能夠保證重啟由于應用程序本身或硬件出錯而執行失敗的應用程序答案:C81.查看Hadoop相關進程是否啟動成功的命令是()A、JpsB、JspC、taskilstD、task答案:A82.下面關于Reducer類說法錯誤的是哪個A、Reducerreduces是一組中間值B、Reducer有3個主要階段:1.shuffle,2.sort,3.ReduceC、在使用時,通常子類重寫多個reduce()方法即可D、在reduce方法中,KEYIN為Map的VALUEOUT集合答案:C83.下列哪個程序通常與NameNode在一個節點啟動?A、SecondaryNameNodeB、DataNodeC、TaskTrackerD、Jobtracker答案:D84.在編寫rpc接口時需要繼承什么接口類?A、VersionControlB、VersionedProtocolC、VersionControllerD、ControllerVersion答案:B85.哪個不是HDFS的特點?A、高容錯B、高吞吐量C、低延遲讀取D、大文件存儲答案:C86.關于MapReducejavaAPI說法錯誤的是?A、新的API傾向于使用接口,而不是抽象類B、新的API實現了配置的統一C、新的API傾向于使用抽象類,而不是接口D、新的API充分使用上下文對象context,允許用戶能與MapReduce系統通信答案:A87.格式化NameNode命令為()A、hdfsnamenode-formattingB、Namenode-formatC、nameNodefomattingD、hdfsnamenode-format答案:D88.下列文件中,包含了主機名到IP地址的映射關系的文件是A、host.confB、hostsC、hosts.denyD、hosts.allow答案:B89.驗證java運行環境是否安裝成功,使用哪個命令查看java版本,若出現版本號則表示安裝成功()A、java-versionB、java-ipconfigC、java-editionD、java-Release答案:A90.關于QJM的寫入過程,以下描述正確的是。A、在Hadoop中,NmeNode只會把Editlog寫入到本地中。B、寫入本地,由配置參數'.dir'控制。C、寫入JouralNode,由配置參數'.dir'控制。D、在寫Editlog時,會有兩個不同的輸出流來控制日志的寫入過程。答案:D91.ResourceManager默認的WebUI訪問端口號為A、8088B、8080C、50070D、50030答案:A92.關于MapReduce中的鍵值對,下面陳述正確的是()A、Key類必須實現WritableB、Key類必須實現WritableparableC、Value類必須實現WritableparableD、Value類必須繼承Writableparable答案:B93.下列對HIve理解正確的選項是()A、一個高可用、高可靠、分布式的海量日志采集、聚合和傳輸的系統B、能夠支撐數據的匯合和臨時查詢的數據倉庫基礎框架C、一個可擴展的機器學習和數據挖掘庫D、一個快速通用的數據引擎答案:B94.以下關于MapReduce說話錯誤的是?A、Map和reduce是他們的主要思想B、用于大規模數據集的串行運算C、極大的方便了編程人員不會分布式編程D、都是從函數式和矢量編程語言借來的特性答案:B95.下面哪個選項中的Daemon總是運行在同一臺主機上()A、NameNode&JobTrackerB、SecondaryNameNode&JobTrackerC、NameNode&SecondaryNameNodeD、DataNode&TaskTracker答案:D96.linux系統中生成密鑰的命令是()A、ssh-copy-idB、ssh-keygenC、ssh-copy-id-iD、ssh-keygen-trsa答案:D97.Hadoop的RPC通信機制采用什么模式?A、客戶機/服務器模式B、客戶端/客戶端模式C、瀏覽器/服務器模式D、客戶機/瀏覽器模式答案:A98.Hadoop2.0中HDFS默認BlockSizeA、32MB、64MC、128MD、256M答案:C99.主節點負責分發任務,從接點負責處理任務,當主節點發生故障時,整個系統就癱瘓了,把這種故障叫做什么?A、多點故障B、單點故障C、分分布式故障D、偽分布式故障答案:B100.在MapReduce中,如果將reducer數設置為0會發生怎樣的情形()A、僅有Reduce作業發生B、僅有Map作業發生C、Reducer輸出會成為最終輸出D、map和reduce作業答案:B101.在一個Hadoop集群中有多少個JobTrackerdaemon?A、一個B、兩個C、每個slave節點一個D、每個slave節點兩個答案:A102.下面哪個目錄保存了Hadoop集群的命令(比如啟動Hadoop)?A、binB、sbinC、/etcD、share答案:B103.使用jar操作運行Hadoop中自帶的jar進行單詞的統計()A、cd-jarhadoop/share/hadoop/mapreduce/B、cdhadoop/share/hadoop/mapreduce/C、cdjar/hadoop/share/hadoop/mapreduce/D、cd/hadoop/share/hadoop/mapreduce/答案:B104.關于rmr命令,下列說法正確的是。A、只刪除指定節點B、遞歸刪除C、刪除文件夾D、刪除文件答案:B105.一個文件大小156MB,在Hadoop2.0中默認情況下請問其占用幾個Block()?A、1B、2C、3D、4答案:B106.以下關于QJM原理的描述正確的是。A、節點一般是由偶數個構成。B、JouralNode不對外提供rpc接口。C、每個JouralNode對外有一個簡易的rpc接口。D、當寫Editlog時,NameNode會向指定節點寫文件。答案:C107.啟動所有的Hadoop守護進程。包括NameNode、SecondaryNameNode、DataNode、ResourceManager、NodeManager的命令是()A、start-yarn.shB、start-all.shC、start-dfs.shD、hadoop-daemons.sh答案:B108.關于Hadoop2中的MapReduce工作機制錯誤的是A、客戶端開始運行MapReduce作業B、向資源管理器請求一個新的應用ID,用作MapReduce作業IDC、在容器中啟動作業對應的applicationmaster進程D、將運行作業所需要的資源(作業JAR文件、配置文件和計算所得的輸入分片)復制到本地中以作業ID命名的目錄下答案:D109.ZooKeeper集群的機器數量一般有什么要求?A、一般為單數臺機器B、一般為雙數臺機器C、一般沒有要求D、有要求,但要求不高答案:A110.HDFS的NameNode負責管理文件系統的命名空間,將所有的文件和文件夾的元數據保存在一個文件系統樹中,這些信息也會在硬盤上保存成以下文件:A、日志B、命名空間鏡像C、兩者都是D、以上說法都不正確答案:C111.HDFS是基于流數據模式訪問和處理超大文件的需求而開發的,具有高容錯、高可靠性、高可擴展性、高吞吐率等特征,適合的讀寫任務是?A、一次寫入,少次讀B、多次寫入,少次讀C、多次寫入,多次讀D、一次寫入,多次讀答案:D112.5、大數據一詞是在哪一年由美國著名未來學家阿爾文·托夫勒在《第三次浪潮》中將大數據稱為“第三次浪潮的華彩篇章”()A、1978B、1980C、1983D、1990答案:B113.關于分布式鎖的實現,下列說法正確的是。A、在網絡中,網絡是可靠的,所以分布式協調調用很輕松。B、為每一個分布式應用程序開發一個獨立的協調程序是必要的,不會造成浪費。C、在分布式協調系統中協調程序開銷較大,反而會提高原程序的性能。D、為了防止分布式系統中的多個進程之間相互干擾,需要一種分布式協調技術來對這些進程進行調度。答案:D114.下列關于HadoopAPI說法錯誤的是()A、hadoop的文件API不是通用的,只用于HDFS文件系統B、Configuration類的默認實例化方法是以HDFS系統的資源配置為基礎C、FileStatus對象存儲文件和目錄的元數據D、FSDataInputStream是java.io.DataInputStream的子類答案:A115.ZooKeeper需要的相關家暴一共有幾個?A、5B、6C、7D、8答案:C116.對DBInputFormat描述不正確的是?A、DBInputFormat類能夠讀取數據庫表中數據B、Hadoop訪問關系型數據庫主要通過DBInputFormat對象實現C、使用DBInputFormat之前,必須要jdbc驅動包拷貝到Hadoop目錄下的share/hadoop/mon/libD、DBInputFormat接口僅僅適合讀取大數量的數據答案:D117.哪個場景適合使用HDFS?A、大量小文件B、大文件存儲C、隨機寫入D、低延遲讀取答案:B118.在hadoop集群搭建中,需要將主機master上opt目錄下的jdk文件遠程拷貝到從機slave01的opt下,以下使用的命令正確的是()A、scp/opt/jdkslave01:/opt/jdkB、scpmaster:/opt/jdk/slave01:/opt/jdkC、scp-r/opt/jdkslave01:/opt/jdkD、scp-rslave01:/opt/jdkmaster:/opt/jdk答案:C119.有關MapReduce的輸入輸出,說法錯誤的是A、鏈接多個MapReduce作業時,序列文件是首選格式B、FileInputFormat中實現的getSplits()可以把輸入數據劃分為分片,分片數目和大小任意定義C、想完全禁止輸出,可以使用NullOutputFormatD、每個reduce需將它的輸出寫入自己的文件中,輸出無需分片答案:B120.安裝Hadoop集群時,在哪個文件指定從機是哪些機器?A、datanodeB、slavesC、yarn-site.xmlD、core-site.xml答案:B121.在海量數據中,Dynamo的存儲是按照什么策略來進行的()A、消息代理B、傳統的存儲放置策略C、一致性哈希算法D、異步復制答案:C122.Namenode在啟動時自動進入安全模式,在安全模式階段,說法錯誤的是A、安全模式目的是在系統啟動時檢查各個DataNode上數據塊的有效性B、根據策略對數據塊進行必要的復制或刪除C、當數據塊最小百分比數滿足的最小副本數條件時,會自動退出安全模式D、文件系統允許有修改答案:D123..以下四個Hadoop預定義的Mapper實現類的描述錯誤的是A、IdentityMapper實現Mapper,將輸入直接映射到輸出B、InverseMapper實現Mapper,反轉鍵/值對C、RegexMapper實現Mapper,為每個常規表達式的匹配項生成一個(match,1)對D、TokenCountMapper實現Mapper,當輸入的值為分詞時,生成(taken,1)對答案:B124.面關于MapReduce模型中Map函數與Reduce函數的描述正確的是()A、一個Map函數就是對一部分原始數據進行指定的操作B、一個Map操作就是對每個ReD.uce所產生的一部分中間結果進行合并操作C、Map與Map之間不是相互獨立的D、Reducee與Reduce之間不是相互獨立的答案:A125.以下哪個方法不是mapper類中的重寫方法A、map()方法B、run()f方法C、setup方法D、clean()方法答案:D126.大數據(BigData)的定義正確的是()A、大數據是指無法在一定時間范圍內使用常規軟件工具進行捕捉、管理和處理的數據集合,是需要新處理模式才能具有更強的決策力、洞察發現力和流程優化能力的海量、高增長率和多樣化的信息資產B、大數據是數據量龐大的意思,將我們在生活中產生的各種數據進行整合,最后通過分析快速的將有用的數據進行保存C、大數據是指數據統計效率快速快,將龐大的數據進行快速的分類,使我們的生活更高效更快捷D、以上都不對答案:A127.Hadoop實現了什么樣的系統A、操作系統B、數據管理系統C、數據整合系統D、分布式文件系統答案:D128.下面生成中間鍵值對的是()A、ReducerB、MapperC、binerD、Partitioner答案:B129.大數據4v特點中Variety理解正確的是A、數據體量大,從TB級別躍升到PB級別B、數據類型繁多,如網絡日志、視頻、圖片、地理位置信息等C、商業價值高,只要合理利用數據并對其進行合理的分析,將會帶來較大的價值回報D、處理速度快,可以從各種類型的數據中快速的獲取有價值的信息答案:B130.配置Hadoop時,JAVA_HOME包含在哪一個配置文件中?A、hadoop-default.xmlB、hadoop-env.shC、hadoop-site.xmlD、configuration.xml答案:B131.有關MapReduce,下面哪個說法是正確的()A、它提供了資源管理能力B、它提供了用戶管理能力C、它是開源數據倉庫系統,、用于查詢和分析存儲在Hadoop中的大型數據集D、它是Hadoop數據處理層答案:D132.YARN啟動命令為()A、start-allB、JpsC、start-yarn.shD、Start.jps.sh答案:C133.mapred-site.xml配置文件中參數和解釋不能對應的是()A、:執行框架設置為HadoopYARNB、mapreduce.map.memory.mb:設置reduces對于較大資源的限制C、Mapreduce.task.io.sort.mb:設置數據進行排序的內存大小D、Mapreduce.task.io.sort.factor:在文件排序中將流進行合并答案:B134.下列ZooKeeper模型的數據結構特點說明正確的是。A、znode可以有子節點目錄,并且每個znode的不可以存儲數據。B、znode不可以是臨時節點,一旦創建這個znode的客戶端與服務端失去聯系,這個znode將自動刪除。C、znode的是有版本的,每個znode的中存儲的數據可以有多個版本,也就是一個訪問路徑中可以存儲多份數據。D、znode的目錄名不可以自動編號,如果已經存在了,需要使用者手動重新命名。答案:C135.在MapReduce中,下面哪個會將輸入鍵值對處理成中間鍵值對()A、MapperB、ReducerC、DriveD、Mapper和Reducer答案:A136.下列關于HDFS為存儲MapReduce并行切分和處理的數據做的設計,錯誤的是A、FSDataInputStream擴展了DataInputStream以支持隨機讀B、為實現細粒度并行,輸入分片(InputSplit)應該越小越好C、一臺機器可能被指派從輸入文件的任意位置開始處理一個分片D、輸入分片是一種記錄的邏輯劃分,而HDFS數據塊是對輸入數據的物理分割答案:B137.在hadoop-eco.sh中添加完相關配置保存并退出后,使用什么命令可以使配配置文件生效()A、ResourceB、sourceC、RpmD、Yum答案:B138.在MapReduce編程時,如下階段的順序是()a.Partitionerb.Mapperc.binerd.Shuffle/SortA、MapperPartitionerShuffle/SortbinerB、MapperPartitionerbinerShuffle/SortC、MapperShuffle/SortbinerPartitioneD、MapperbinerPartitionerShuffle/Sort答案:D139.下面與HDFS類似的框架是()A、NTFSB、FAT32C、GFSD、EXT3答案:C140.Hadoop的作者是哪一位()A、MartinFowlerB、DougCuttingC、KentBeckD、GraceHopper答案:B141.關于Hadoop單機模式和偽分布式的說法正確的是()A、兩者都啟動守護進程,且守護進程運行在一臺機器上B、單機模式不使用HDFS,但加載守護進程C、兩者都不與守護進程交互,避免復雜性D、后者比前者增加了HDFS輸入輸出以及可檢查內存使用情況答案:D142.查看Hadoop版本信息的命令是()A、Hadoop-versionB、HadoopversionC、Hadoop-vD、Hadoopv答案:B143.Hadoop的配置目錄在哪里?A、/etc/hostsB、/etc/hadoopC、$HADOOP_HOME/confD、$HADOOP_HOME/etc/hadoop答案:C多選題1.連接ZooKeep中的jar包下面哪些是必須的?【選兩項】A、mybatis.jarB、zookeeper.jarC、netty.jarD、znode.jar答案:BC2.在MapReduce中,對于map輸出的中間結果,不負責按key進行分區的是()【選三項】A、RecordReaderB、binerC、PartitionerD、HDFS答案:ABD3.格式化HDFS系統的命令為?【選兩項】A、hdfsnamenode–formatB、hdfsdatanode-formatC、hadoopnamenode-formatD、hadoopdatanode-format答案:AC4.在Hadoop的分區階段,不是默認的Partitioner是()【選三項】A、HashParB、PartitionerC、HashPartitionerD、Hmapper答案:ACD5.關關于ZooKeeper的配置參數,下列說明正確的是()【選兩項】A、tickTime:服務器與客戶端之間的心跳時間間隔。B、initLimit:設定了所有跟隨者與領導者進行連接并同步的時間范圍。C、syncLimit:允許一個跟隨者與領導者進行的交換數據時間。D、dataDir:hadoop的數據目錄。答案:AB6.HDNF的作用是負責對數據的分布式儲存,其內部對象包括()【選三項】A、ClientB、NameNodeC、DataBasesD、
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
- 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 六一慶祝活動方案
- 六一活動加營銷活動方案
- 六一活動童裝店活動方案
- 六一活動送課活動方案
- 六一烹飪活動策劃方案
- 六一社區籃球活動方案
- 六一童話世界活動方案
- 六一自助活動方案
- 六一黏土活動方案
- 六年級寫班級活動方案
- GB/T 15171-1994軟包裝件密封性能試驗方法
- GB/T 14518-1993膠粘劑的pH值測定
- 數字電路設計及verilog-hdl實現康磊課后答案
- GA/T 974.33-2011消防信息代碼第33部分:起火原因分類與代碼
- GA 44-2015消防頭盔
- 《科學護眼愛眼共享光明未來》近視防控宣傳教育課件
- 面向對象分析和設計講座面向對象方法學PPT資料
- 《財政學》教學大綱中文版
- 高危新生兒急診服務流程圖
- “文化引導型”城市更新思想思考與實踐課件
- 卷心菜中過氧化物酶熱穩定性的初步研究
評論
0/150
提交評論