版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
賽項考試題庫(含答案)1.ZooKeeper的特點不包括()。A、順序一致性D、復合系統(tǒng)映像2.在hadoop配置中core-site.xml的配置是()參數(shù)。3.當Kafka中日志片段大小達到()時,當前日志片段會被關(guān)閉。6.Kafka的消息是如何進行順序?qū)懭氲?()7.Stage的Task的數(shù)量由()決定。A、Partition8.sqoop的組件功能是()。A、sqoop只能實現(xiàn)關(guān)系型數(shù)據(jù)庫向非關(guān)系型數(shù)據(jù)傳輸數(shù)據(jù)9.ZooKeeper中的一次寫操作是原子的嗎?()11.在Flink中,水位線是()生成的。A、基于系統(tǒng)時間的周期性12.典型的NoSQL數(shù)據(jù)庫是()。14.要在Hive中啟用Kerberos認證,應(yīng)該設(shè)置哪個配置參數(shù)()?A、hive.security.authent15.Hive中的自動分區(qū)是通過哪個配置參數(shù)啟用的()?16.以下選項哪個是MapReduce正確的運行模型()。17.將一個RDD轉(zhuǎn)換為DataFrame的方法是()。18.Hadoop集群中存在的主要性能瓶頸是()。A、CPUC、磁盤1020.Dataset最終在()版本中被定義成Spark新特性。21.在Hive中,哪個配置參數(shù)用于指定HiveCLI的歷史命令記錄目錄()?A、hive.history.file.direc24.Kafka是一種()。A、hive.metastore.db.27.將大數(shù)據(jù)平臺數(shù)據(jù)導出到mysql可以使用()工具。L類型被映射什么類型()。29.Flink的CEP(ComplexEventProcessing)庫用于(),幫助檢測和處理特定31.Kafka的高可用性是通過什么機制實33.在hive中下列哪個命令不可以實現(xiàn)去重()。34.關(guān)于SparkSQL,以下描述錯誤的是()。C、DataFrame是一種以RDD為基礎(chǔ)的分布式數(shù)據(jù)集35.Kafka的消息壓縮算法可以選擇的方式是()。38.關(guān)于ZooKeeper說法錯誤的是()。40.測試Sqoop是否能夠正常連接MySQL數(shù)據(jù)庫命令是()。A、sqooplist-database--connectjdbc:mysql://:3306/--usernamB、sqooplist-databases--connectionjdbc:mysql:/C、sqooplist-databases--connectjdbc:mysql://127.0.0.D、sqooplist-databases--connectjdbc:mysql://1B、增加YARND、增加容錯機制42.Sqoop中哪個參數(shù)用于指定要使用的分隔符,以便在導入數(shù)A、-field-separator43.SparkSQL中,model函數(shù)可以接A、Override、Ignore44.在ZooKeeper中,每個節(jié)點都有一個唯一的標識符,這個標識符是()。45.ZooKeeper中的一次讀操作是原子的嗎?()A、是,讀操作是原子的C、取決于讀操作的類型46.Flink的時間語義(TimeSemantics)中的事件時間(EventTime)和處理時間(ProcessingTime)的區(qū)別是()。47.在Hive中,以下哪個配置參數(shù)用于指定Hive執(zhí)行計劃的輸出目錄()?48.啟動一個容器的操作命令是()。50.消費者出現(xiàn)活鎖問題時應(yīng)該()。D、提高poll頻率51.Hive中分組的關(guān)鍵字是什么()?52.關(guān)于Hive數(shù)據(jù)傾斜問題描述正確的是()。54.關(guān)于SparkStreaming的優(yōu)點,不包括()。55.下列關(guān)于MapReduce說法不正確的是()。56.以下關(guān)于Spark中的RDD的說法,錯誤的是()。57.以下關(guān)于Spark計算框架,說法錯誤的是()。58.在Hadoop生態(tài)組件中,哪個產(chǎn)品可用于復雜的批量數(shù)據(jù)處理。()59.在Hive中,以下哪個配置參數(shù)用于指定Hive服務(wù)器的端口號()?60.HadoopMapReduce支持多種語言編程,下列說法不正確的是()。C、可以用Python語言編寫MapReduce應(yīng)用程序61.查看HDFS的報告命令是()。A、bin/hdfsdfsadmin-rep62.以下選項哪個是HDFS的名稱節(jié)點()。63.SparkJob默認的調(diào)度模式是()。D、運行時指定64.Flume的哪個版本引入了Kafka作為其事件源和接收器?()65.在ZooKeeper中,關(guān)于節(jié)點的ACL(訪問控制列表)說法錯誤的是()。A、CL可以用于控制節(jié)點的讀寫權(quán)限B、ACL可以定義多個權(quán)限組合C、ACL可以設(shè)置到子節(jié)點上并繼承父節(jié)點的權(quán)限66.查看Docker所有容器的命令是()。67.Flume的事件Body可以包含什么類型的數(shù)據(jù)?()答案:CB、String,Map<String,String>和自定義對象序列化后的數(shù)據(jù)。68.在ZooKeeper中,節(jié)點可以設(shè)置監(jiān)聽器嗎?()69.Flink中的轉(zhuǎn)換算子(TransformationOperator)通常用于()。70.Flink的安裝過程中,通常需要設(shè)置()來指定Flink71.()不是Spark的四大組件。72.關(guān)于Dataset,下列說法錯誤的是()。C、Dataset結(jié)合了RDD和DatD、ataset可以通過SparkSession中的createDa73.下列()不是RDD的緩存方法。D、以上都不是答案:CA、無法控制任務(wù)的并發(fā)度B、格式緊耦合C、安全機制不夠完善D、connector必須符合JDBC模型答案:A76.Hive中的配置文件通常位于哪個目錄中()?A、/etc/hive/conf答案:A77.Flume的哪個攔截器可以按類型區(qū)分事件?()A、ETL攔截器B、分區(qū)攔截器C、以上都不是D、以上都是答案:A79.Flume如何處理故障恢復?()80.Hive是由哪家公司開源的()。81.關(guān)于MapReduce優(yōu)點,下列說法不正確的是()。82.Flink最常用的編程語言是()。83.ZooKeeper中的一致性協(xié)議ZAB是基于()算法實現(xiàn)。84.Docker的()命令用于構(gòu)建鏡像。85.DStream的轉(zhuǎn)換操作方法中,()方法可以直接調(diào)用RDD上的操作方法。86.下列關(guān)于leader和follower的說法正確的是()。87.HMaster的主要作用是()。B、負責響應(yīng)用戶I/0請求,向HDFS文件系統(tǒng)讀寫數(shù)據(jù)D、最終保存HBase數(shù)據(jù)行的文件88.Flume的哪個版本加入了對Thrift事件的的支持?()89.Flink的容錯機制是()工作的,它定期記錄數(shù)據(jù)流的狀態(tài),以便在發(fā)生故90.在ZooKeeper中,節(jié)點的數(shù)據(jù)版本是如何維護的?()OM/s,副本數(shù)為6,預估需要部署Kafka機器數(shù)量為()。A、--delete-target-d94.namenode在()模式下hdf95.Flink的核心概念之一是()。97.在Flink的配置文件中,()通常用來指定Flink任務(wù)并行度。98.Flume的哪個版本開始支持Avro作為數(shù)據(jù)傳輸格式?()B、2.X版本t”或“”100.Flume的Sink組件負責什么?()101.DStream的輸出操作,不包括()。102.Flume的事件傳輸方式是什么?()C、消費者消費的多個topic中某個topic被刪除104.Flume的攔截器實現(xiàn)了哪個接口?()105.Kafka的核心是由哪個組件組成?()106.以下哪個選項不是Sqoop的導入模式?()A、純文本導入C、Avro導入D、SecondaryNameNode應(yīng)與NameNode部署到一個節(jié)點110.Hive的默認元數(shù)據(jù)存儲是什么()?112.Kafka的消息保留策略可以根據(jù)什么進行配置?()B、大小114.Dockerfile中指定環(huán)境變量的指令是()。115.下列()不可以作為SparkStreaming的輸入數(shù)據(jù)流。116.Hive是為了解決哪類問題()?A、海量結(jié)構(gòu)化日志的數(shù)據(jù)統(tǒng)計B、分布式組件調(diào)度庫是不支持使用Sqoop直接進行數(shù)據(jù)傳送()。120.關(guān)于Hive存儲的文件格式描述錯誤的是()。125.將一個已經(jīng)創(chuàng)建的容器導出到一個文件使用的操作命令是()。答案:D126.關(guān)于Hive的Sequence答案:D128.Docker內(nèi)置網(wǎng)絡(luò)模式不包括()。A、*134.關(guān)于Hive描述正確的是()。137.在Centos中啟動Docker服務(wù)的命令是()。138.DataFrame和RDD最大的區(qū)別是()。A、HadoopDistributedFileSyste140.允許開發(fā)人員為容器分配MAC地址的是()。141.Spark默認的存儲級別是()。142.HBase依賴()技術(shù)框架提供消息通信機制。143.與傳統(tǒng)消息系統(tǒng)相比,Kafka的突出特點不包括()。144.下面()端口不是Spark自帶服務(wù)的端口。A、1.0答案:C147.Flink的Web界面通常用于()。B、監(jiān)控Flink集群答案:B148.關(guān)于DStream窗口操作函數(shù),以下說法錯誤的是()。A、window()返回基于源DStream的窗口進行批計算后的一個新的DstreamB、countByWindow()返回基于滑動窗口的DStream中的元素數(shù)C、reduceByWindow()做聚合操作并返回一個新的DstreamD、以上說法都不對答案:D149.Docker是基于()實現(xiàn)的開源容器項目。答案:C150.在Sqoop中,使用哪個命令可以列出可用的數(shù)據(jù)庫連接?()151.Kafka的消息消費可以使用哪種模式?()152.下面()操作是寬依賴。多臺主機的集群是()模式。D、全分布HA模式155.Flink支持的數(shù)據(jù)處理方式為()。156.()參數(shù)不影響kafka重平衡?157.在ZooKeeper中,()角色負責協(xié)調(diào)其他節(jié)點的工作。C、觀察者(0bserver)164.下列不是Spark的部署模式的是()。165.下列哪個數(shù)據(jù)類型不是hadoop的數(shù)據(jù)類型()。166.Flume的事件可以包含哪些屬性?()168.Flink的狀態(tài)管理用于(),以支持容錯性和狀態(tài)化的計算。A、存儲和檢索中間結(jié)果C、定時觸發(fā)窗口操作169.下列關(guān)于topic和partition的描述,錯誤的是()。170.在Flink中,()通常用于指定Flink作業(yè)的任務(wù)流圖(JobGraph)。171.Flume的哪個組件可以保證數(shù)據(jù)不會丟失?()B、接收器175.下列()不是Docker項目中用于文件存儲A、MYSQL176.Kafka服務(wù)器默認能接收的最大消息是多大?()否A、1M179.Hive是以()技術(shù)為基礎(chǔ)的數(shù)據(jù)倉庫。180.Flink的作業(yè)調(diào)度(JobScheduling)通常由()負責。181.Flume的哪個組件用于將事件數(shù)據(jù)寫入目標存儲?()182.關(guān)于HiveSQL編譯描述正確的是()。183.Docker的()命令只支持將本地文件復制到容器中。A、DDA、DDC、Spark磁盤10開銷較大,任務(wù)之間的銜接涉及10開銷187.Hive適合()環(huán)境。188.強制刪除容器tmp01的操作命令是()。191.Docker運行的核心模塊是()。192.關(guān)于SparkSQL,以下說法正確的是()。A、HiveContext繼承了SqIConteD、SparkSQL的前身是Hive194.Kafka的消息以什么形式進行存儲?()195.關(guān)于MapReduce的說法正確的是()。196.dockerfile文件的作用是()。C、用于保存容器配置D、用于存放docker配置197.Flume的默認通道類型是什么?()198.Kafka的消費者在處理消息時可以選擇的模式是()。199.關(guān)于Hive各個格式使用場景描述錯誤的是()。A、Parquet對于大型查詢的類型是高效的,對于掃描特定表格中的特定列的查D、RCFile是一種行列存儲相結(jié)合的存儲方式202.ZooKeeper中的數(shù)據(jù)模型是基于()。203.關(guān)于Hive內(nèi)外表描述正確的是()。C、外表存儲必須指定LOCATIOND、內(nèi)外表刪除時,都會刪除元數(shù)據(jù)和存儲204.Flume的事件是什么?()205.使用Dockerrun命令運行一個容器時,通過參數(shù)()可啟動一個bash允許用戶進行交互。206.Flink的集群部署通常需要()作為資源管理器。D、數(shù)據(jù)清洗答案:B211.Flume的Kafka源類型是什么?()答案:C212.Hive中以下操作不正確的是()。A、loaddatainpathintotablen答案:D213.Linux下啟動HDFS的命令是()。A、Hdfs答案:C214.下列說法錯誤的是()。A、生產(chǎn)者和消費者面向的都是一個topic215.以下哪個是正確的sqoop導入數(shù)據(jù)的完整命令?()A、sqoopimport--connectjdbc:mysql://localhost:3306/userdb--usernot--delete-target-dir--target-dir/MysqlToHDFS1--tB、sqoopimportdata--connectjdbc:mysql://localmeroot--delete-target-dir--target-dir/MysqlToHC、bin/sqoopimport--connectjdbc:mysql://localhost:3meroot--delete-target-dir--target-dir/MysqlToHD、bin/sqoopimportdata--connectjdbc:mysql://ernameroot--delete-target-dir--target-dir/MysqlToHDFS1--216.Flink中的Checkpoints(檢查點)主要用于()。A、實現(xiàn)Exactly-once語義218.Sqoop的作用是()。219.Flink的主要特點是()。2.Flume的可靠性機制包括哪些內(nèi)容?()4.Flink的緩存機制包含以下哪些內(nèi)容()。5.Flink核心組成部分提供了面向()的接口。8.Docker的核心概念包括()。9.Flume可以用于哪些方面的數(shù)據(jù)處理?()11.Hive中的數(shù)據(jù)存儲是如何分區(qū)的()。13.要啟用Hive的Tez執(zhí)行引擎,應(yīng)該配置哪個屬性()。14.Flink支持的時間操作類型包括()。16.Flink流式處理的數(shù)據(jù)源類型包括()。A、Collections18.Hadoop核心主要由()部分組成。19.Hive支持哪種數(shù)據(jù)存儲格式()。A、CSV20.關(guān)于Flink的架構(gòu)表述正確的是()。21.Docker容器的操作狀態(tài)有()。A、初建狀態(tài)B、運行狀態(tài)C、停止狀態(tài)D、掛起狀態(tài)E、刪除狀態(tài)答案:ABCDE22.SparkStreaming的基本輸入源有()。A、文件流C、套接字流D、RDD隊列流答案:ACD23.關(guān)于partition中的數(shù)據(jù)是如何保持到硬盤上的,說法正確的是()。A、一個topic分為好幾個partition,每一個partition是以文件夾的形式保持在broker節(jié)點上面的B、每一個分區(qū)的命名是從序號0開始遞增C、每一個partition目錄下多個segment文件(包含xx.index,xx.log),默D、每個分區(qū)里面的消息是有序的,數(shù)據(jù)是一樣的25.使用dockerps命令可以查看到的信息有()。26.Flume的Spoolingdirectorysource有何特點?()答案:ACD28.Kafka的消息傳遞保證可以是()。29.Flink有哪些狀態(tài)存儲方式()。31.Sqoop是一個用于在Hadoop和結(jié)構(gòu)化數(shù)據(jù)存儲(如關(guān)系型數(shù)據(jù)庫)之間傳輸數(shù)據(jù)的工具。以下哪些()是Sqoop的主要參數(shù)?32.下面是使用Sqoop將數(shù)據(jù)從Hive導入到MySQL的具體步驟()。33.Flink的編程模型包括哪幾層()。A、表35.Sqoop中的--hive-drop-import-delims參數(shù)有什么作用?()A、在將數(shù)據(jù)從MySQL導入到Hive時,刪除MySQL中存在的所有分隔符答案:AC36.nginx可以提供的功能有()。A、作為HTTP服務(wù)器答案:ABCDA、已經(jīng)安裝了Hadoop集群和Hive數(shù)據(jù)庫D、已經(jīng)安裝好JAVA答案:ABC38.要啟用Hive的壓縮功能,應(yīng)該配置哪個屬性()。A、press.enab39.以下是Spark中executor的作A、保存計算的RDD分區(qū)數(shù)據(jù)41.Kafka的消費者可以以以下哪種方式進行消息的并行處理?()42.要在Hive中啟用LLAP(LowLatencyAnalyticalProcessing),哪個配置屬45.Flink的特點包括()。答案:ABCD47.hadoopHA啟動后,以下哪些進程運行在master()?答案:ABC52.Flume的攔截器支持哪些操作?()54.Flink的核心組件包括()。55.Hive中的數(shù)據(jù)存儲如何分區(qū)()。56.Stage的Task的數(shù)量不是由()決定。59.Flink的主要特性包括()。61.下面關(guān)于Flink的說法正確的是()。A、Flink起源于Stratosphere項目,該項目是在2010年到2014年間由柏林工C、Flink不是Apache軟件基金會的項目D、Flink是Apache軟件基金會的5個最大的大數(shù)據(jù)項62.Docker容器的重要操作有()。答案:ABC65.以下哪些是yarn-site.xml配置文件主要參數(shù)()。A、yarn.resourcemanager.addrB、yarn.resourcemanagerC、yarn.resourcemanager.答案:ABCD67.以下哪些屬于ETL工具()。答案:ABC68.Flink支持的部署模式有()。A、Flink和Spark一樣,都是基于磁盤的計算框架B、當全部運行在HadoopYARN之上時,F(xiàn)link的性能甚至還要略好于SparkD、Spark的市場影響力和社區(qū)活躍度明顯超過Flink答案:BCD70.Flume的核心組件有哪些?()71.Flink常見的應(yīng)用場景包括()。A、GET73.Flume的攔截器可以完成哪些操作?()74.Sqoop目前支持兩種增量導入模式,分別是()和()模式。75.關(guān)于HadoopHDFS的文件操作,正確的是()。76.Hadoop集群的三大核心組件是()。78.使用dockerstats命令可以顯示的容器信息有()。79.在Hive中,以下哪個配置屬性用于設(shè)置Hive表的默認壓縮格式()。A、press.fo80.ZooKeeper中的數(shù)據(jù)節(jié)點可以存儲的數(shù)據(jù)類型包括()。81.Flink的兼容性體現(xiàn)在()。82.Docker的網(wǎng)絡(luò)類型有()。A、hive.query.parallel85.ZooKeeper中的節(jié)點類型包括()。86.RDD有()缺陷。87.Flume可以應(yīng)用于哪些數(shù)據(jù)傳輸場景?()88.kafka容錯性說話正確的是()。A、hive.data.root.dir92.Flink組件中流類型包括()。93.Hive的查詢優(yōu)化是通過什么實現(xiàn)的()。94.Hive中的分區(qū)是如何定義的()。95.要讀取people.json文件生成DataFrame,可以使用下列()命令。A、spark.read.json("people.jsC、spark.read.format("json").IoD、spark.read.format("csv96.Docker的常用鏡像命令有()。A、COPY答案:ACD97.Docker數(shù)據(jù)卷的操作有()。C、dockervolumerm98.Flume可以與其他哪些大數(shù)據(jù)技術(shù)進行集成?()答案:ABCD99.Hadoop的優(yōu)點有哪些()?A、hive.default.storage.foA、hive.column.level.securB、hive.security.columC、hive.enable.columC、負責向HDFS申請資源105.Docker可以解決的問題有()。107.下列關(guān)于Docker的操作命令正確的有()。
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 個人終止勞動協(xié)議
- 難治性傷口病因介紹
- 藥物濫用性頭痛病因介紹
- 7.1《反對黨八股(節(jié)選)》【中職專用】高一語文(高教版2023基礎(chǔ)模塊上冊)
- 七年級政治知識讓人生更美麗2省公開課一等獎全國示范課微課
- 2024-2025學年人教版八年級英語上學期期末真題 專題07 閱讀理解(說明文)(安徽專用)
- 2022-2023學年天津四十七中高三(上)期末語文試卷
- 電子裝接實36課件講解
- 2023年旋渦式鼓風機項目融資計劃書
- 2023年公路養(yǎng)護項目融資計劃書
- 膳食營養(yǎng)課件教學課件
- 國開(內(nèi)蒙古)2024年《創(chuàng)新創(chuàng)業(yè)教育基礎(chǔ)》形考任務(wù)1-3終考任務(wù)答案
- 民族團結(jié)進步教育-中華民族共同體概論學習通超星期末考試答案章節(jié)答案2024年
- 2024入團知識題庫(含答案)
- 2023年秋季國家開放大學-01467-土木工程力學(本)期末考試題帶答案
- JCT908-2013 人造石的標準
- 真空過濾機濾布褶皺問題
- 渾南房地產(chǎn)場發(fā)展歷程
- 維修電工基礎(chǔ)知識課件.ppt
- 工程結(jié)算單(樣本)
- 日常物業(yè)管理服務(wù)流程圖
評論
0/150
提交評論