问道深山去,听禅紫气来。

21春学期(1709、1803、1809、1903、1909、2003、2009、2103)《大数据开发技术(二)》在线作业

阅读:37 更新时间:2021-07-03 02:09:50

21春学期(1709、1803、1809、1903、1909、2003、2009、2103)《大数据开发技术(二)》在线作业


------------------------
1.Mllib中metrics.roc 表示()指标
A.准确度
B.召回率
C.F值
D.ROC曲线
答案请点我要此答案,或联系QQ

2.以下哪个函数可以对两个RDD进行合并()
A.union
B.substract
C.intersection
D.cartesian
答案请点我要此答案,或联系QQ

3.如果numPartitions是分区个数,那么Spark每个RDD的分区ID范围是()
A.[0,numPartitions]
B.[0,numPartitions-1]
C.[1,numPartitions-1]
D.[1,numPartitions]
答案请点我要此答案,或联系QQ

4.Spark Streming中()函数可以合并两个DStream,生成一个包含两个DStream中所有元素的新DStream对象
A.map
B.flatMap
C.filter
D.union
答案请点我要此答案,或联系QQ

5.Spark中DataFrame的()方法是进行连接查询
A.where
B.join
C.limit
D.apply
答案请点我要此答案,或联系QQ

6.GraphX中()方法可以查询边信息
A.numVertices
B.numEdges
C.vertices
D.edges
答案请点我要此答案,或联系QQ

7.Scala中()方法返回一个列表,包含除了最后一个元素之外的其他元素
A.head
B.init
C.tail
D.last
答案请点我要此答案,或联系QQ

8.图的结构通常表示为:G(V,E),其中,G表示()
A.图
B.子图
C.顶点
D.边
答案请点我要此答案,或联系QQ

9.Spark中DataFrame的()方法是进行条件查询
A.where
B.join
C.limit
D.apply
答案请点我要此答案,或联系QQ

10.GraphX中()方法可以释放边缓存
A.cache
B.presist
C.unpersistVertices
D.edges.unpersist
答案请点我要此答案,或联系QQ

11.Spark GraphX中类Graph的aggregateMessages方法可以()
A.收集邻居顶点的顶点Id和顶点属性
B.收集邻居顶点的顶点Id
C.向指定顶点发送信息并聚合信息
D.将顶点信息更新到图中
答案请点我要此答案,或联系QQ

12.Scala中如果函数无返回值,则函数返回类型为()
A.NULL
B.Void
C.Nothing
D.Unit
答案请点我要此答案,或联系QQ

13.Mllib中metrics.fMeasureByThreshold 表示()指标
A.准确度
B.召回率
C.F值
D.ROC曲线
答案请点我要此答案,或联系QQ

14.Mllib中线性会馆算法中的参数reParam表示()
A.要运行的迭代次数
B.梯度下降的步长
C.是否给数据加干扰特征或者偏差特征
D.Lasso 和ridge 的正规化参数
答案请点我要此答案,或联系QQ

15.以下哪个不是Scala的数据类型()
A.Int
B.Short Int
C.Long
D.Any
答案请点我要此答案,或联系QQ

16.以下哪个方法可以从外部存储中创建RDD()
A.parallelize
B.makeRDD
C.textFile
D.loadFile
答案请点我要此答案,或联系QQ

17.Scala中如果函数中的每个参数在函数中最多只出现一次,则可以使用占位符()代替参数。
A.井号
B.下划线
C.斜杠
D.逗号
答案请点我要此答案,或联系QQ

18.Dstream窗口操作中()方法基于滑动窗口对(K,V)键值对类型的DStream中的值按K使用聚合函数func进行聚合操作,得到一个新的Dstream
A.window
B.countByWindow
C.reduceByWindow
D.reduceByKeyAndWindow
答案请点我要此答案,或联系QQ

19.Spark Streming中()函数可以对源DStream中的每一个元素应用func方法进行计算,如果func函数返回结果为true,则保留该元素,否则丢弃该元素,返回一个新的Dstream
A.map
B.flatMap
C.filter
D.union
答案请点我要此答案,或联系QQ

20.Scala列表方法中返回所有元素,除了最后一个的方法是()
A.drop
B.head
C.filter
D.init
答案请点我要此答案,或联系QQ

21.Scala中重写一个非抽象方法必须使用()修饰符。
A.extends
B.override
C.extend
D.overrides
答案请点我要此答案,或联系QQ

22.Mllib中线性会馆算法中的参数numIterations表示()
A.要运行的迭代次数
B.梯度下降的步长
C.是否给数据加干扰特征或者偏差特征
D.Lasso 和ridge 的正规化参数
答案请点我要此答案,或联系QQ

23.spark-submit配置项中()表示executor内存大小
A.--num-executors NUM
B.--executor-memory MEM
C.--total-executor-cores NUM
D.--executor-coures NUM
答案请点我要此答案,或联系QQ

24.Scala中合并两个数组的方法是()
A.line
B.add
C.append
D.concat
答案请点我要此答案,或联系QQ

25.Scala列表方法中丢弃前n个元素,并返回新列表的方法是()
A.drop
B.head
C.filter
D.init
答案请点我要此答案,或联系QQ

------------------------
1.Scala中可以用()方法来连接两个或多个列表
A.::
B.#:::
C.List.:::()
D.List.concat()
答案请点我要此答案,或联系QQ

2.以下算法中属于分类算法的是()
A.KNN算法
B.逻辑回归
C.随机森林
D.Kmeans
答案请点我要此答案,或联系QQ

3.MLlib中用于线性回归算法的包主要有()
A.LinearRegressionWithSGD
B.RidgeRegressionWithSGD
C.LassoWithSGD
D.LeftRegression
答案请点我要此答案,或联系QQ

4.Spark SQL读取的数据源支持()
A.Hive表
B.Parquent文件
C.JSON数据
D.关系数据库
答案请点我要此答案,或联系QQ

5.Spark支持使用()语言编写应用
A.Scala
B.Python
C.Java
D.R
答案请点我要此答案,或联系QQ

6.Scala中使用()方法来查看两个集合的交集元素
A.Set.concat
B.Set.&
C.Set.&&
D.Set.intersect
答案请点我要此答案,或联系QQ

7.PairRDD中()函数可以进行分组
A.mapValues
B.groupBy
C.groupByKey
D.reduceByKey
答案请点我要此答案,或联系QQ

8.MLlib中进行数据标准化的方式有()
A.Normalizer
B.Standard
C.StandardScaleer
D.MinMaxScaler
答案请点我要此答案,或联系QQ

9.Spark是一个()计算框架
A.快速
B.分布式
C.可扩展
D.容错
答案请点我要此答案,或联系QQ

10.Spark DataFrame中()方法可以返回一个List
A.collect
B.take
C.takeAsList
D.collectAsList
答案请点我要此答案,或联系QQ

------------------------
1.Spark Streming中对DStream的任何操作都会转化成对底层RDDs的操作
T.对
F.错
答案请点我要此答案,或联系QQ

2.Spark SQL可被视为一个分布式的SQL查询引擎,并且提供了一个叫做DataFrame的可编程抽象数据模型
T.对
F.错
答案请点我要此答案,或联系QQ

3.Scala列表中last返回列表最后一个元素
T.对
F.错
答案请点我要此答案,或联系QQ

4.RDD的flatMap操作是将函数应用于RDD 之中的每一个元素,将返回的迭代器(数组、列表等)中的所有元素构成新的RDD 。
T.对
F.错
答案请点我要此答案,或联系QQ

5.Scala 集合分为可变的和不可变的集合
T.对
F.错
答案请点我要此答案,或联系QQ

6.Scala中集合连接时如果元素有重复的就会移除重复的元素
T.对
F.错
答案请点我要此答案,或联系QQ

7.Spark Streming中DStream可以通过外部数据源(Kafka,Flume,Twitter等)来获取,也可以通过现有DStream的高级操作(Transformation操作)获得
T.对
F.错
答案请点我要此答案,或联系QQ

8.PairRDD中groupBy(func)func返回key,传入的RDD的各个元素根据这个key进行分组。
T.对
F.错
答案请点我要此答案,或联系QQ

9.SparkContext类中makeRDD方法不可将单机数据创建为分布式RDD
T.对
F.错
答案请点我要此答案,或联系QQ

10.RDD中combineByKey不允许返回类型与输入数据类型不同的返回值
T.对
F.错
答案请点我要此答案,或联系QQ

11.Spark对只有未曾设置存储级别的RDD才能设置存储级别,设置了存储级别的RDD不能修改其存储级别
T.对
F.错
答案请点我要此答案,或联系QQ

12.Scala函数组合器可以通过一个函数重新计算列表中所有元素,没有返回值
T.对
F.错
答案请点我要此答案,或联系QQ

13.RDD的intersection方法用于求出两个RDD 的共同元素
T.对
F.错
答案请点我要此答案,或联系QQ

14.RDD的subtract用于用于将前一个RDD 中在后一个RDD 出现的元素删除
T.对
F.错
答案请点我要此答案,或联系QQ

15.RDD的cartesian函数是笛卡尔积,也就是将两个集合的元素两两组合成一组
T.对
F.错
答案请点我要此答案,或联系QQ

尝试在线代写作业

推荐信息