2025年度福建省職業(yè)院校技能大賽中職組(大數(shù)據(jù)應(yīng)用與服務(wù)賽項(xiàng))考試題庫(含答案)_第1頁
2025年度福建省職業(yè)院校技能大賽中職組(大數(shù)據(jù)應(yīng)用與服務(wù)賽項(xiàng))考試題庫(含答案)_第2頁
2025年度福建省職業(yè)院校技能大賽中職組(大數(shù)據(jù)應(yīng)用與服務(wù)賽項(xiàng))考試題庫(含答案)_第3頁
2025年度福建省職業(yè)院校技能大賽中職組(大數(shù)據(jù)應(yīng)用與服務(wù)賽項(xiàng))考試題庫(含答案)_第4頁
2025年度福建省職業(yè)院校技能大賽中職組(大數(shù)據(jù)應(yīng)用與服務(wù)賽項(xiàng))考試題庫(含答案)_第5頁
已閱讀5頁,還剩105頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

2025年度福建省職業(yè)院校技能大賽中職組(大數(shù)據(jù)應(yīng)用與服務(wù)賽項(xiàng))考試題庫(含答案)一、單選題1.水位線的單位通常是()。2.下列方法中,不能創(chuàng)建RDD的方法是()。答案:D答案:A4.Flume的哪個(gè)版本加入了Kafka作為源和匯點(diǎn)?()A、1.X版本B、2.X版本C、3.X版本D、4.X版本答案:B5.關(guān)于DataFrame與RDD在結(jié)構(gòu)上的區(qū)別,以下描述錯(cuò)誤的是()。A、DataFrame可以看作是分布式的Row對(duì)象的集合,在二維表數(shù)據(jù)集的每一列都帶有名稱和類型B、RDD是分布式的Java對(duì)象的集合D、ataFrame提供了比RDD更豐富的算子6.配置Hadoop文件參數(shù)時(shí),配置項(xiàng)“dfs.replication”應(yīng)該配置在哪個(gè)文件?答案:B7.在Hive中,哪個(gè)配置參數(shù)用于指定Hive的執(zhí)行模式,如本地模式或MapReduA、hive.execution.eng8.Flink的安裝過程中,通常需要設(shè)置()來指定Flink的根目錄。D、數(shù)據(jù)清洗10.Stage的Task的數(shù)量由()決定。答案:A11.下面哪個(gè)命令是創(chuàng)建hive表()。12.關(guān)于Hive用戶自定義函數(shù)UDF的描述錯(cuò)誤的是()。A、UDF(User-Defined-Function)一進(jìn)一出B、UDAF(User-DefinedAggregationFuncation)聚集函數(shù),多進(jìn)一出C、UDTF(User-DefinedTable-GeneratingFunctions)一進(jìn)多出D、上傳UDFjar包至Hive環(huán)境即可使用自定義函數(shù)13.Flume的哪個(gè)組件用于將事件數(shù)據(jù)寫入目標(biāo)存儲(chǔ)?()答案:B14.Flume的攔截器實(shí)現(xiàn)了哪個(gè)接口?()A、Channellnterceptor15.Spark采用RDD以后能夠?qū)崿F(xiàn)高效計(jì)算B、中間結(jié)果持久化到內(nèi)存,數(shù)據(jù)在內(nèi)存中的多個(gè)RDD操作之間進(jìn)行傳遞,避免C、存放的數(shù)據(jù)可以是Java對(duì)象,避免了不必要的對(duì)象序列化和反序列化17.ZooKeeper的特點(diǎn)不包括()。B、原子性D、復(fù)合系統(tǒng)映像18.Flume的事件是什么?()19.Flink的數(shù)據(jù)源(Source)通常用于()。20.下列選項(xiàng)中,針對(duì)Spark運(yùn)行的基本流程是錯(cuò)誤是()。A、Driver端提交任務(wù),向Master申請(qǐng)資源B、Master與Worker進(jìn)行TCP通信,使得WorkC、Executor啟動(dòng)會(huì)主動(dòng)連接Driver,通過Driver->Master->WorkExecutor,從而得到Driver在哪D、river會(huì)產(chǎn)生Task,提交給Executor中啟動(dòng)Task去做真正的計(jì)算22.下列關(guān)于topic和partition的描述,錯(cuò)誤的是()。23.Hive中的自動(dòng)分區(qū)是通過哪個(gè)配置參數(shù)啟用的()?24.下面()不是RDD的特點(diǎn)。25.下列不是Spark的部署模式的是()。26.查看HDFS的報(bào)告命令是()。A、bin/hdfsdfsadmin-rep27.sqoop安裝完成后,查看sqoop版本的命令是()。28.Kafka的主題分區(qū)數(shù)量可以根據(jù)什么進(jìn)行配置?()30.Kafka的高可用性是通過什么機(jī)制實(shí)現(xiàn)的?()A、hive.execution.engine=sp32.在ZooKeeper中,EPHEMERAL節(jié)點(diǎn)的特點(diǎn)是()。33.下面中不屬于HIVE中的元數(shù)據(jù)信息()。A、表的名字C、表的屬性(只存儲(chǔ)內(nèi)部表信息)34.關(guān)于Hive查詢通常延遲較高的原因描述錯(cuò)誤的是()。A、由于沒有索引,需要掃描整個(gè)表,因此延遲較高B、由于MapReduce本身具有較高的響應(yīng)延遲,因此在利用MapReduce執(zhí)行Hive35.Hadoop組件在企業(yè)應(yīng)用中,能用于大數(shù)據(jù)集實(shí)時(shí)查詢的產(chǎn)品有()。37.DataFrame和RDD最大的區(qū)別是()。A、科學(xué)統(tǒng)計(jì)支持C、存儲(chǔ)方式不一樣D、外部數(shù)據(jù)源支持38.Flume的默認(rèn)Avro序列化方式是什么?()39.在Hive中,以下哪個(gè)配置參數(shù)用于指定HiveCLI的歷史命令記錄文件名()?40.Flink支持處理各種類型的數(shù)據(jù),包括()數(shù)據(jù)。41.制作鏡像時(shí),復(fù)制文件到鏡像中使用的命令是()。A、DD43.Flume的Sink組件負(fù)責(zé)什么?()44.Flume如何處理故障恢復(fù)?()個(gè)mapper?()46.()不是Spark的四大組件。47.關(guān)于Hive內(nèi)外表描述正確的是()。A、內(nèi)部表數(shù)據(jù)由HDFS自身管理,外部表數(shù)據(jù)由Hive管理;B、內(nèi)部表數(shù)據(jù)存儲(chǔ)的位置是hive.metastore.warehouse.dir設(shè)置配置(默認(rèn):48.以下關(guān)于Spark計(jì)算框架,說法錯(cuò)誤的是()。D、Spark可運(yùn)行于獨(dú)立的集群模式中,可運(yùn)行于Hadoop中,也可運(yùn)行于Amazo49.Hive的默認(rèn)元數(shù)據(jù)存儲(chǔ)是什么()?50.以下哪個(gè)是正確的sqoop命令,用于將數(shù)據(jù)從MySQL導(dǎo)入到HDFS?()A、bin/sqoopimport--connectjdbc:mysql://0:3306/userdernameroot--delete-target-dir--target-dir/MysqlToHDFS1-B、in/sqoopimport--connectjdbc:mysql://localhost:eroot--delete-target-dir--target-dir/MysqlToHDFS1-C、bin/sqoopimport--connectjdbc:mysql://localhost:3306meroot--delete-target-dir--target-dir/MysqlToHDFS1D、bin/sqoopimport--connectjdbc:mysql://localhosmeroot--delete-target-dir--target-dir/MysqlToHDFS1-351.使用create命令新建容器時(shí),指定容器在網(wǎng)絡(luò)中的別名的命令選項(xiàng)是()。52.與傳統(tǒng)消息系統(tǒng)相比,Kafka的突出特點(diǎn)不包括()。C、支持實(shí)時(shí)的流式處理D、提供在線消息同步和離線消息緩存的能力53.DStream的轉(zhuǎn)換操作方法中,()方法可以直接調(diào)用RDD上的操作方法。答案:D54.以下哪個(gè)是正確的sqoop導(dǎo)入數(shù)據(jù)的完整命令?()A、sqoopimport--connectjdbc:mysql://localhost:3306/userdb--usernot--delete-target-dir--target-dir/MysqIToHDFS1-B、sqoopimportdata--connectjdbc:mysql://localhomeroot--delete-target-dir--target-dir/MysqlTC、bin/sqoopimport--connectjdbc:mysql://localhost:330meroot--delete-target-dir--target-dir/MysqlTD、bin/sqoopimportdata--connectjdbc:mysql://loernameroot--delete-target-dir--target-dir/MysqIToHDFS155.關(guān)于MapReduce優(yōu)點(diǎn),下列說法不正確的是()。A、高容錯(cuò)性B、適合PB級(jí)以上海量數(shù)據(jù)的離線處理C、良好的擴(kuò)展性56.關(guān)于Hive存儲(chǔ)的文件格式描述錯(cuò)誤的是()。57.Spark默認(rèn)的存儲(chǔ)級(jí)別是()。58.將一個(gè)已經(jīng)創(chuàng)建的容器導(dǎo)出到一個(gè)文件使用的操作命令是()。59.關(guān)于Hive各個(gè)格式使用場景描述錯(cuò)誤的是()。60.在ZooKeeper中,事務(wù)日志(transactionlog)用于記錄()。A、sqooplist-database--connectjdbc:mysql://:3306/--usernamB、sqooplist-databases--connectionjdbc:mysql:/C、sqooplist-databases--connectjdbc:mysql://127.0.0.D、sqooplist-databases--connectjdbc:mysql://163.Flink的數(shù)據(jù)源可以是()。A、文件C、數(shù)據(jù)庫64.在ZooKeeper中,關(guān)于節(jié)點(diǎn)的ACL(訪問控制列表)說法錯(cuò)誤的是()。65.當(dāng)之前下線的分區(qū)重新上線時(shí),要執(zhí)行Leader選舉,選舉策略為()。B、ReassignPartitionLeaderC、PreferredReplicaPartitionLeaderD、ControlledShutdownPartitionLeader選舉66.Hive是以()技術(shù)為基礎(chǔ)的數(shù)據(jù)倉庫。67.關(guān)于SparkStreaming的優(yōu)點(diǎn),不包括()。68.關(guān)于SparkSQL,以下描述錯(cuò)誤的是()。D、ataFrame可以完成RDD的絕大多數(shù)功能70.下列描述中,哪項(xiàng)不屬于Sqoop的缺點(diǎn)()。D、connector必須符合JDBC模型71.Flink的狀態(tài)管理用于(),以支持容錯(cuò)性和狀態(tài)化的計(jì)算。72.使用Dockerrun命令運(yùn)行一個(gè)容器時(shí),通過參數(shù)()可啟動(dòng)一個(gè)bash允許用A、it73.下列說法錯(cuò)誤的是()。75.Kafka的消費(fèi)者在處理消息時(shí)可以選擇的模式是()。78.Flink的窗口操作通常在()執(zhí)行,以對(duì)數(shù)據(jù)進(jìn)行分組、聚合和統(tǒng)計(jì)。79.Dockerfile中聲明鏡像內(nèi)服務(wù)監(jiān)聽的端口的指令是()。A、LISTEN80.Flume的默認(rèn)通道類型是什么?()81.Flink的Web界面通常用于()。82.在hive中下列哪個(gè)命令不可以實(shí)現(xiàn)去重()。84.下列()不可以作為SparkStreaming的輸入數(shù)據(jù)流。85.Hive中以下操作不正確的是()。A、loaddatainpathintotablen86.SparkSQL可以處理的數(shù)據(jù)源包括()。B、Hive表、數(shù)據(jù)文件87.在Hive中,以下哪個(gè)配置參數(shù)用于指定Hive表的默認(rèn)存儲(chǔ)格式()?A、hive.default.storage88.SparkJob默認(rèn)的調(diào)度模式是()。89.Flume的Source組件負(fù)責(zé)什么?()90.在ZooKeeper中,節(jié)點(diǎn)可以設(shè)置監(jiān)聽器嗎?()91.Flink的核心概念之一是()。92.Hadoop集群中存在的主要性能瓶頸是()。A、CPUC、磁盤1093.在Hive中,以下哪個(gè)配置參數(shù)用于指定HDFS的名稱節(jié)點(diǎn)地址()。C、hive.metastore.warehouse.dirhive94.Dockerfile配置文件使用()命令指定基礎(chǔ)鏡像。95.dockerfile文件的作用是()。96.典型的NoSQL數(shù)據(jù)庫是()。97.Docker中的每一個(gè)工作都可以抽象為一個(gè)()。98.Hive是為了解決哪類問題()?B、分布式組件調(diào)度答案:A99.在linux系統(tǒng)中,提交hadoop程序的命令是()。答案:A100.當(dāng)在Sqoop中使用--target-dir參數(shù)時(shí),它指定了哪個(gè)目錄的路徑?()A、導(dǎo)出數(shù)據(jù)的目錄B、導(dǎo)入數(shù)據(jù)的目錄D、S3的目標(biāo)目錄101.Kafka的核心是由哪個(gè)組件組成?()A、ProducerA、persist()103.在Docker的運(yùn)行過程中,對(duì)鏡像的操作不包括()。A、delete104.將nginx容器接入自定義的myops網(wǎng)絡(luò)的操作命令是()。A、dockernetworkjoinmyopsng106.HMaster的主要作用是()。A、用于啟動(dòng)任務(wù)管理多個(gè)HRegionServerB、負(fù)責(zé)響應(yīng)用戶I/0請(qǐng)求,向HDFS文件系統(tǒng)讀寫數(shù)據(jù)C、負(fù)責(zé)協(xié)調(diào)集群中的分布式組件D、最終保存HBase數(shù)據(jù)行的文件答案:A107.ZooKeeper中的默認(rèn)端口號(hào)是()。A、2181.0108.Flink的時(shí)間語義(TimeSemantics)中的事件時(shí)間(EventTime)和處理時(shí)A、事件時(shí)間是事件發(fā)生的時(shí)間,處理時(shí)間是事件進(jìn)入Flink的時(shí)間B、事件時(shí)間是事件進(jìn)入Flink的時(shí)間,處理時(shí)間是事件發(fā)生的時(shí)間C、事件時(shí)間和處理時(shí)間是相同的D、事件時(shí)間和處理時(shí)間沒有明確的定義109.Flink的分布式部署需要的組件是()。110.搜索nginx引擎的操作命令是()。111.Flink的集群部署通常需要()作為資源管理器。A、某個(gè)消費(fèi)者崩潰114.Flume的事件Body可以包含什么類型的數(shù)據(jù)?()115.在Hive中,以下哪個(gè)配置參數(shù)用于指定Hive執(zhí)行計(jì)劃的輸出目錄()?A、hive.query.plan.output.direc117.在Hive中,哪個(gè)配置參數(shù)用于指定HiveCLI的歷史命令記錄目錄()?A、hive.history.file.di118.Kafka使用的是什么類型的消息傳遞模式?()119.ZooKeeper中的數(shù)據(jù)模型是基于()。120.以下對(duì)hive中表數(shù)據(jù)操作描述正確的是()。B、hive可以修改列值C、hive不可以修改特定行值、列值121.在Hive中,以下哪個(gè)配置參數(shù)用于指定Hive執(zhí)行計(jì)劃的緩存A、hive.query.plan.cache.dir答案:B122.下列選項(xiàng)中,()不屬于轉(zhuǎn)換算子操作。答案:D124.以下哪個(gè)選項(xiàng)不是Sqoop的導(dǎo)入模式?()125.下列關(guān)于leader和follower的說法正確的是()。126.Linux下啟動(dòng)HDFS的命令是()。128.Flink任務(wù)管理器(TaskManager)的作用是()。129.HBase依賴()技術(shù)框架提供消息通信機(jī)制。130.在Docker數(shù)據(jù)管理中,數(shù)據(jù)卷可以提供的特性不包括()。131.ZooKeeper中的一次寫操作是原子的嗎?()132.在Sqoop中,哪個(gè)參數(shù)用于指定要導(dǎo)入的目標(biāo)表?()A、Spark的計(jì)算模式也屬于MapReduce,但不局限于Map和Reduce操作,還提C、Spark磁盤10開銷較大,任務(wù)之間的銜接涉及10開銷D、Spark基于DAG的任務(wù)調(diào)度執(zhí)行機(jī)制,要優(yōu)于HadoopMapReduce的迭代執(zhí)行134.Flink的作業(yè)提交通常需要()來管理作業(yè)的執(zhí)行。答案:A135.Flume的哪個(gè)版本加入了對(duì)Avro事件的的支持?()136.設(shè)用壓力測試測出機(jī)器寫入速度是20M/s一臺(tái),峰值的業(yè)務(wù)數(shù)據(jù)的速度是100M/s,副本數(shù)為6,預(yù)估需要部署Kafka機(jī)器數(shù)量為()。答案:CA、硬件層面B、操作系統(tǒng)層面C、應(yīng)用程序?qū)用娲鸢福築138.在ZooKeeper中,SEQUENTIAL節(jié)點(diǎn)的特點(diǎn)是()。A、節(jié)點(diǎn)名稱具有順序性139.以下關(guān)于Hive操作描述不正確的是()。140.Flume的哪個(gè)版本開始支持Avro作為數(shù)據(jù)傳輸格式?()A、1.X版本B、2.X版本C、3.X版本庫是不支持使用Sqoop直接進(jìn)行數(shù)據(jù)傳送()。142.Kafka是一種()。143.Hive中分組的關(guān)鍵字是什么()?144.以下關(guān)于RDD的寬依賴和窄依賴的說法錯(cuò)誤的是()。146.關(guān)于Hive描述正確的是()。147.獲取遠(yuǎn)程倉庫中Docker鏡像的操作命令是()。A、dockerget148.以下選項(xiàng)中說法正確的是()。C、Job是運(yùn)行在Executor上的工作單元D、Stage是Job的基本調(diào)度單位,一個(gè)Job會(huì)分為多組Task,每組Task被稱為149.若要在Hive中啟用壓縮數(shù)據(jù)存儲(chǔ),應(yīng)該設(shè)置哪個(gè)配置參數(shù)()?A、press.enabC、p150.在ZooKeeper中,ACL(訪問控制列表)可以設(shè)置為()。151.下列關(guān)于MapReduce說法不正確的是()。B、MapReduce來源于google的學(xué)術(shù)論文C、MapReduce程序只能用java語言編寫D、MapReduce隱藏了并行計(jì)算的細(xì)節(jié),方便使用152.啟動(dòng)一個(gè)容器的操作命令是()。153.Hive中的配置文件通常位于哪個(gè)目錄中()?A、/etc/hive/conf154.namenode在()模式下hdfs文件系統(tǒng)無法修改和寫入文件。155.查看Docker所有容器的命令是()。156.關(guān)于SecondaryNameNode哪項(xiàng)是正確的?()D、SecondaryNameNode應(yīng)與NameNode部署到一個(gè)節(jié)點(diǎn)157.Flink最常用的編程語言是()。158.關(guān)于ZooKeeper臨時(shí)節(jié)點(diǎn)的說法正確的是()。159.Docker配置文件的語法格式中,代表單個(gè)字符的符號(hào)是()。C、!160.在ZooKeeper中,Watcher是在()被觸發(fā)。161.在Flink中,窗口(Window)的作用是()。162.Flink的作業(yè)調(diào)度(JobScheduling)通常由()負(fù)責(zé)。163.Task運(yùn)行在下面()選項(xiàng)中Executor上的工作單元。A、Driverprogram答案:C164.Flume的核心組件有哪些?()A、Source,Channel,andS165.Flume的哪個(gè)版本開始支持Spoolingdirectorysource?()答案:C166.關(guān)于Dataset,下列說法錯(cuò)誤的是()。A、Dataset能從RDD中構(gòu)建B、Dataset提供了特定域?qū)ο笾械娜躅愋图螩、Dataset結(jié)合了RDD和DataFrame的優(yōu)點(diǎn)D、ataset可以通過SparkSession中的createDataset來創(chuàng)建167.以下哪種不是Hive支持的數(shù)據(jù)類型()。168.下列語句中,描述錯(cuò)誤的是()。A、可以通過CLI方式、JavaApi方式調(diào)用SqoopB、Sqoop底層會(huì)將Sqoop命令轉(zhuǎn)換為MapReduce任務(wù),并通過Sqoop連t”或“”169.ZooKeeper中的一致性協(xié)議ZAB是基于()算法實(shí)現(xiàn)。A、可以用JAVA語言編寫MapReduce應(yīng)用程序B、可以用C/C++語言編寫MapReduce應(yīng)用程序C、可以用Python語言編寫MapReduce應(yīng)用程序D、可以用javascript語言編寫MapReduce應(yīng)用程序答案:D171.在Flink的配置文件中,()通常用來指定Flink任務(wù)并行度。172.創(chuàng)建一個(gè)容器的操作命令是()。A、dockeradd173.下面()端口不是Spark自帶服務(wù)的端口。A、8080.0A、list175.在Centos中啟動(dòng)Docker服務(wù)的命令是()。1.SparkContext可以從()讀取數(shù)據(jù)。3.下列關(guān)于容器操作命令匹配正確的有()。4.以下哪些是yarn-site.xml配置文件主要參數(shù)()。A、yarn.resourcemanager.addreB、yarn.resourcemanager.C、yarn.resourcemanager.5.下列關(guān)于鏡像操作命令匹配正確的有()。6.Hive中的分區(qū)是如何定義的()。7.Flink有哪些狀態(tài)存儲(chǔ)方式()。8.Flink的主要特性包括()。D、事件時(shí)間支持9.Docker的常用容器命令有()。A、build10.要啟用Hive的壓縮功能,應(yīng)該配置哪個(gè)屬性()。A、press.enaA、QueryOptimizer12.下面哪個(gè)配置屬性用于指定Hive查詢的最大并行度()。A、hive.query.parallel13.Docker容器的重要操作有()。A、創(chuàng)建C、啟動(dòng)14.如果要在Hive中啟用用戶定義的聚合函數(shù)(UDAFs),哪個(gè)配置屬性應(yīng)該設(shè)15.Hive的分區(qū)和桶的主要區(qū)別是什么()。B、分區(qū)是邏輯存儲(chǔ)層面的,而桶是物理存儲(chǔ)層面的D、分區(qū)和桶在Hive中沒有區(qū)別16.關(guān)于Docker容器的run命令,下列參數(shù)匹配正確的有()。B、已交互模式運(yùn)行容器17.Hadoop集群的三大核心組件是()。18.Hive中的數(shù)據(jù)存儲(chǔ)是如何分區(qū)的()。19.Flink的時(shí)間窗口有()。20.Kafka的消費(fèi)者可以以以下哪種方式進(jìn)行消息的并行處理?()21.要啟用Hive的Tez執(zhí)行引擎,應(yīng)該配置哪個(gè)屬性()。A、hive.execution.eng22.Task運(yùn)行不在以下選項(xiàng)中Executor上的工作單元有()。A、Driverprogram23.RDD的操作主要是()操作。24.Docker可以解決的問題有()。25.Flume的可靠性機(jī)制包括哪些內(nèi)容?()26.Flink是實(shí)時(shí)計(jì)算的代表技術(shù)之一,以下針對(duì)Flink表述正確的有()。A、Flink是構(gòu)建在數(shù)據(jù)流之上的一款有狀態(tài)計(jì)算框架B、Flink可對(duì)有限數(shù)據(jù)流和無限數(shù)據(jù)流進(jìn)行有狀態(tài)或無狀態(tài)的計(jì)算C、Flink無法對(duì)大規(guī)模的數(shù)據(jù)進(jìn)行快速計(jì)算D、Flink能夠部署在各種集群環(huán)境答案:ABD27.要讀取people.json文件生成DataFrame,可以使用下列()命令。A、spark.read.json("people.jsoC、spark.read.format("json").loaD、spark.read.format("csv28.下列關(guān)于Docker的操作命令正確的有()。A、dockerdelete29.Hive的數(shù)據(jù)存儲(chǔ)是如何組織的()。B、分區(qū)30.下面關(guān)于SparkMLIib庫的描述正確的是()。32.Kafka的核心組件包括()。A、Producer33.下面哪個(gè)配置屬性用于設(shè)置Hive查詢的日志級(jí)別()。A、hive.query.log.le34.Flume的核心組件有哪些?()35.關(guān)于spark容錯(cuò)說法錯(cuò)誤的有()。B、寬依賴開銷更大C、heckpoint可以節(jié)約大量的系統(tǒng)資源D、RDD的容錯(cuò)機(jī)制是基于SparkStreaming的容錯(cuò)機(jī)制37.Flink支持的時(shí)間操作類型包括()。38.Hadoop的運(yùn)行模式分為以下()種。39.以下是Spark中executor的作用是()。40.從RDD轉(zhuǎn)換得到DataFrame包含兩種典型的方法,分別是()。B、使用編程方式定義RDD模式C、利用投影機(jī)制推斷RDD模式41.Kafka相對(duì)傳統(tǒng)技術(shù)有什么優(yōu)勢說法正確的是()。寫操作.42.當(dāng)使用Sqoop將數(shù)據(jù)從MySQL導(dǎo)入到HDFS時(shí),以下()參數(shù)可以使用?44.Dockerfile配置文件中的指令包括()。45.Flink核心組成部分提供了面向()的接口。46.在Hive中,以下哪個(gè)配置屬性用于設(shè)置Hive表的默認(rèn)壓縮格式()。A、press.forC、hive.table.defaultD、hive.default.table.47.Flink的編程模型包括哪幾層()。D、有狀態(tài)數(shù)據(jù)流處理48.下列選項(xiàng)中,屬于Sqoop命令的參數(shù)有()。49.關(guān)于ZooKeeper的特性說法正確的是()。A、能改變ZooKeeper服務(wù)器狀態(tài)的操作稱為事務(wù)操作B、是版本機(jī)制有效避免了數(shù)據(jù)更新時(shí)出現(xiàn)的先后順序問題50.使用dockerstats命令可以顯示的容器信息有()。B、網(wǎng)絡(luò)51.Flink支持的部署模式有()。52.關(guān)于ZooKeeper順序節(jié)點(diǎn)的說法不正確的是()。53.查看Docker容器的子命令有()。54.Docker數(shù)據(jù)卷的操作有()。D、ockervolumesave55.Kafka負(fù)載均衡原理說法正確的是()。A、producer根據(jù)用戶指定的算法,將消息發(fā)送到指定的partitionB、存在多個(gè)partiiton,每個(gè)partition有自己的replica,每個(gè)replica分布在不同的Broker節(jié)點(diǎn)上C、多個(gè)partition需要選取出leadpartition,leadpartition負(fù)責(zé)讀寫,并由zD、通過zookeeper管理broker與consumer的動(dòng)態(tài)加入與離開56.下列屬于RDD的行動(dòng)算子的是()。A、count()57.要配置Hive的元數(shù)據(jù)存儲(chǔ)連接字符串,應(yīng)該設(shè)置哪個(gè)屬性()。58.Kafka的特性()。60.Flink程序由以下()組成。61.要在Hive中配置HDFS的NameNodeURI,應(yīng)該設(shè)置哪個(gè)屬性()。62.Docker的常用鏡像命令有()。63.Hive中的哪個(gè)配置屬性用于指定Hiv64.Flink的核心組件包括()。65.Flume可以用于哪些類型的數(shù)據(jù)采集?()66.關(guān)于HadoopHDFS的文件操作,正確的是()。67.Stage的Task的數(shù)量不是由()決定。A、Partition69.Flume的Channel類型有哪些?()70.HadoopHDFS自身的局限性包括()。71.下面關(guān)于Flink窗口描述錯(cuò)誤的是()。72.()是流計(jì)算的處理流程。73.Docker容器的操作狀態(tài)有()。74.Sqoop是一個(gè)用于在Hadoop和結(jié)構(gòu)化數(shù)據(jù)存儲(chǔ)(如關(guān)系型數(shù)據(jù)庫)之間傳輸數(shù)據(jù)的工具。以下哪些()是Sqoop的主要參數(shù)?75.Docker的常用容器命令有()。76.Docker的核心概念包括()。77.關(guān)于partition中的數(shù)據(jù)是如何保持到硬盤上的,說法正確的是()。A、一個(gè)topic分為好幾個(gè)partition,每一個(gè)在broker節(jié)點(diǎn)上面的B、每一個(gè)分區(qū)的命名是從序號(hào)0開始遞增78.Flume可以用于哪些方面的數(shù)據(jù)處理?()79.ZooKeeper中的節(jié)點(diǎn)類型包括()。80.關(guān)于dockerbuild命令支持的選項(xiàng),下列匹配正確的有()。81.Flink常見的應(yīng)用場景包括()。83.Flink流式處理的數(shù)據(jù)源類型包括()。84.nginx可以提供的功能有()。A、作為HTTP服務(wù)器85.下面哪些場景不是Flink擅長的()。86.Hive的數(shù)據(jù)存儲(chǔ)是如何組織的()。87.ZooKeeper中的數(shù)據(jù)節(jié)點(diǎn)可以存儲(chǔ)的數(shù)據(jù)類型包括()。88.要在Hive中啟用LLAP(LowLatencyAnalyticalProcessing),哪個(gè)配置屬89.ZooKeeper的集群中的Leader節(jié)點(diǎn)的選舉是通過以下()方式實(shí)現(xiàn)。90.關(guān)于spark中數(shù)據(jù)傾斜引發(fā)原因正確的選項(xiàng)有()。A、key本身分布不均衡91.后端容器化環(huán)境部署中使用的數(shù)據(jù)庫一般有()。92.Flume的Spoolingdirectorysource有何特點(diǎn)?()93.Hive中的分區(qū)是如何定義的()。94.Hive支持哪種數(shù)據(jù)存儲(chǔ)格式()。A、CSV95.以下哪些組件屬于Hadoop生態(tài)圈()。A、MySQL96.Flink的Sink有哪些類型()。97.使用dockerps命令可以查看到的信息有()。C、容器的端口98.Flume的HTTPSource和Sink組件支持哪些協(xié)議?()A、HTTP99.關(guān)于Flink的架構(gòu)表述正確的是()。C、Flink提供兩個(gè)核心API:DatasetAPI和DataStreamAPI100.Sparkdriver的功能是()。101.Flink整個(gè)系統(tǒng)包含()三個(gè)部分。103.Flume的攔截器可以完成哪些操作?()104.在Hive中,以下哪個(gè)配置屬性用于啟用動(dòng)態(tài)分區(qū)()。A、hive.exec.dynamic.partit105.Flink組件中流類型包括()。106.下列選項(xiàng)()是ZooKeeper的應(yīng)用場景。C、分布式協(xié)調(diào)/通知107.spark的特點(diǎn)包括()。108.創(chuàng)建鏡像的主要方法有()。110.當(dāng)使用Sqoop進(jìn)行數(shù)據(jù)導(dǎo)出時(shí),以下哪些()選項(xiàng)是正確的?A、Sqoop可以使用多個(gè)mapper同時(shí)進(jìn)行數(shù)據(jù)導(dǎo)出C、Sqoop導(dǎo)出的數(shù)據(jù)可以插入到已存在的HDFS目錄中111.利用數(shù)據(jù)卷容器可以對(duì)其中的數(shù)據(jù)卷進(jìn)行()操作。112.Sqoop目前支持兩種增量導(dǎo)入模式,分別是()和()模式。113.下面關(guān)于Flink的描述正確的是()。114.關(guān)于ZooKeeper的特性說法正確的是()。判斷題的狀態(tài)。23.()Flume的事件可以在不同的組件之間進(jìn)行轉(zhuǎn)換,例如將Avro事件轉(zhuǎn)換為25.()窄依賴是劃分Stage的依據(jù)。26.()DStream的內(nèi)部結(jié)構(gòu)是由一系列連續(xù)的RDD組成,每個(gè)RDD都是一小段29.()Flink支持精確一次語義(Exactly-OnceSemantics)來確保數(shù)據(jù)處理的34.()Flume的可靠性機(jī)制包括對(duì)事件進(jìn)行多次復(fù)制并將其存儲(chǔ)在35.()構(gòu)造數(shù)據(jù)Schema模式可以添加數(shù)據(jù)的列名稱。38.()ZooKeeper的close命令會(huì)關(guān)閉當(dāng)前連接,可用connect再次連接,不40.()卡夫選擇器不是MLlib的特征選擇方法。47.Zo

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論