问道深山去,听禅紫气来。

21春学期(1709、1803、1809、1903、1909、2003、2009、2103)《大数据开发技术(二)》在线作业

阅读:19 更新时间:2021-05-21 02:35:06

21春学期(1709、1803、1809、1903、1909、2003、2009、2103)《大数据开发技术(二)》在线作业


------------------------
1.Spark Streming中()函数可以合并两个DStream,生成一个包含两个DStream中所有元素的新DStream对象
A.map
B.flatMap
C.filter
D.union
答案请点我要此答案,或联系QQ

2.请问RDD的()操作用于将相同键的数据聚合
A.join
B.zip
C.combineByKey
D.collect
答案请点我要此答案,或联系QQ

3.Dstream窗口操作中()方法基于滑动窗口对源DStream中的元素进行聚合操作,得到一个新的Dstream
A.window
B.countByWindow
C.reduceByWindow
D.reduceByKeyAndWindow
答案请点我要此答案,或联系QQ

4.Scala函数组合器可以接收一个可以处理嵌套列表的函数,然后把返回结果连接起来的方法是()
A.map
B.foreach
C.flatten
D.flatmap
答案请点我要此答案,或联系QQ

5.GraphX中()方法可以查询边信息
A.numVertices
B.numEdges
C.vertices
D.edges
答案请点我要此答案,或联系QQ

6.Spark Streming中()函数可以对源DStream中的每一个元素应用func方法进行计算,如果func函数返回结果为true,则保留该元素,否则丢弃该元素,返回一个新的Dstream
A.map
B.flatMap
C.filter
D.union
答案请点我要此答案,或联系QQ

7.GraphX中()方法可以查询顶点个数
A.numVertices
B.numEdges
C.vertices
D.edges
答案请点我要此答案,或联系QQ

8.PairRDD可以通过()获得仅包含键的RDD
A.key
B.keys
C.value
D.values
答案请点我要此答案,或联系QQ

9.Spark GraphX中类Graph的mask方法可以()
A.反转图中所有边的方向
B.按照设定条件取出子图
C.取两个图的公共顶点和边作为新图,并保持前一个图顶点与边的属性
D.合并边相同的属性
答案请点我要此答案,或联系QQ

10.var a=10; for(a<-1 until 20){ println(a); } 共循环了()次
A.10
B.11
C.20
D.19
答案请点我要此答案,或联系QQ

11.Scala中合并两个数组的方法是()
A.line
B.add
C.append
D.concat
答案请点我要此答案,或联系QQ

12.Mllib中线性会馆算法中的参数intercept表示()
A.要运行的迭代次数
B.梯度下降的步长
C.是否给数据加干扰特征或者偏差特征
D.Lasso 和ridge 的正规化参数
答案请点我要此答案,或联系QQ

13.以下哪个函数可以对RDD进行去重()
A.sortBy
B.filter
C.distinct
D.intersection
答案请点我要此答案,或联系QQ

14.GraphX中()方法可以查询度数
A.degrees
B.degree
C.vertices
D.edges
答案请点我要此答案,或联系QQ

15.GraphX中()是存放着Edg对象的RDD
A.RDD[Edge]
B.EdgeRDD
C.RDD[(VertexId,VD)]
D.VertexRDD
答案请点我要此答案,或联系QQ

16.Scala函数组合器可以过滤移除使得传入的函数的返回值为false的元素的方法是()
A.filter
B.flatten
C.grouby
D.flatmap
答案请点我要此答案,或联系QQ

17.var a=10; do{ a+=1; }while(a<20) 共循环了()次
A.9
B.10
C.11
D.12
答案请点我要此答案,或联系QQ

18.Spark GraphX中类Graph的joinVertices方法可以()
A.收集邻居顶点的顶点Id和顶点属性
B.收集邻居顶点的顶点Id
C.向指定顶点发送信息并聚合信息
D.将顶点信息更新到图中
答案请点我要此答案,或联系QQ

19.Dstream输出操作中()方法在Driver中打印出DStream中数据的前12个元素。
A.print
B.saveAsTextFiles
C.saveAsObjectFiles
D.saveAsHadoopFiles
答案请点我要此答案,或联系QQ

20.Scala函数组合器可以通过一个函数重新计算列表中所有元素,并且返回一个相同数目元素的新列表的方法是()
A.map
B.foreach
C.flatten
D.flatmap
答案请点我要此答案,或联系QQ

21.spark-submit配置项中()表示启动的executor数量
A.--num-executors NUM
B.--executor-memory MEM
C.--total-executor-cores NUM
D.--executor-coures NUM
答案请点我要此答案,或联系QQ

22.Spark中运行交互式SQL查询的大规模并行查询引擎是()
A.Spark Core
B.Spark SQL
C.BlinkDB
D.Mllib
答案请点我要此答案,或联系QQ

23.以下哪个函数可以求两个RDD的笛卡尔积()
A.union
B.substract
C.intersection
D.cartesian
答案请点我要此答案,或联系QQ

24.Scala源代码被编译成()字节码,所以它可以运行于JVM之上
A.Spark
B.Scala
C.Java
D.JDK
答案请点我要此答案,或联系QQ

25.Spark GraphX中类Graph的aggregateMessages方法可以()
A.收集邻居顶点的顶点Id和顶点属性
B.收集邻居顶点的顶点Id
C.向指定顶点发送信息并聚合信息
D.将顶点信息更新到图中
答案请点我要此答案,或联系QQ

------------------------
1.以下哪个方法可以创建RDD()
A.parallelize
B.makeRDD
C.textFile
D.loadFile
答案请点我要此答案,或联系QQ

2.Spark DataFrame中()方法可以返回一个Array对象
A.collect
B.take
C.takeAsList
D.collectAsList
答案请点我要此答案,或联系QQ

3.PairRDD中()函数可以进行分组
A.mapValues
B.groupBy
C.groupByKey
D.reduceByKey
答案请点我要此答案,或联系QQ

4.MLBase包括()
A.Mllib
B.MLI
C.SparkR
D.GraphX
答案请点我要此答案,或联系QQ

5.决策树是()的常用算法
A.分类
B.聚类
C.降维
D.回归
答案请点我要此答案,或联系QQ

6.Spark的RDD持久化操作有()方式
A.cache
B.presist
C.storage
D.long
答案请点我要此答案,或联系QQ

7.Scala中可以用()方法来连接两个或多个列表
A.::
B.#:::
C.List.:::()
D.List.concat()
答案请点我要此答案,或联系QQ

8.Spark是一个()计算框架
A.快速
B.分布式
C.可扩展
D.容错
答案请点我要此答案,或联系QQ

9.Spark可以从()分布式文件系统中读取数据
A.HDFS
B.Hbase
C.Hive
D.Tachyon
答案请点我要此答案,或联系QQ

10.Spark中DataFrame的()方法是查询指定字段的数据信息
A.select
B.selectExpr
C.col
D.apply
答案请点我要此答案,或联系QQ

------------------------
1.Scala函数组合器中flatmap结合了map和flatten的功能,接收一个可以处理嵌套列表的函数,然后把返回结果连接起来
T.对
F.错
答案请点我要此答案,或联系QQ

2.DataFrame是一个分布式的Row对象的数据集合
T.对
F.错
答案请点我要此答案,或联系QQ

3.Scala列表中last返回一个列表,包含除了第一个元素之外的其他元素
T.对
F.错
答案请点我要此答案,或联系QQ

4.Spark Streaming中时间片也可称为批处理时间间隔(batch interval),时间片是人为地对数据进行定量的标准,作为拆分数据的依据,一个时间片的数据对应一个RDD 实例。
T.对
F.错
答案请点我要此答案,或联系QQ

5.PairRDD中mapValues是针对键值对(Key,Value)类型的数据中的key和Value进行Map操作
T.对
F.错
答案请点我要此答案,或联系QQ

6.RDD的subtract用于用于将前一个RDD 中在后一个RDD 出现的元素删除
T.对
F.错
答案请点我要此答案,或联系QQ

7.RDD中join操作最后只返回两个RDD 都存在的键的连接结果。
T.对
F.错
答案请点我要此答案,或联系QQ

8.RDD的filter函数返回一个存储符合过滤条件的所有元素的新RDD
T.对
F.错
答案请点我要此答案,或联系QQ

9.Scala中数组的第一个元素索引为1
T.对
F.错
答案请点我要此答案,或联系QQ

10.RDD的行动操作是用于触发转换操作的操作,这个时候才会真正开始进行计算。
T.对
F.错
答案请点我要此答案,或联系QQ

11.Spark中DataFrame 的查询操作也是一个懒操作, 仅仅生成一个查询计划, 只有触发Action 操作才会进行计算并返回查询结果。
T.对
F.错
答案请点我要此答案,或联系QQ

12.RDD的mapPartitions操作会导致Partitions数量的变化
T.对
F.错
答案请点我要此答案,或联系QQ

13.Scala函数组合器中foreach和map类似,有返回值
T.对
F.错
答案请点我要此答案,或联系QQ

14.用户可以在Hadoop YARN上运行Spark
T.对
F.错
答案请点我要此答案,或联系QQ

15.Spark持久化RDD 后,在再一次需要计算该RDD 时将需要重新计算
T.对
F.错
答案请点我要此答案,或联系QQ

尝试在线代写作业

推荐信息