问道深山去,听禅紫气来。

20秋学期(1709、1803、1809、1903、1909、2003、2009 )《网络爬虫与信息提取》在线作业

阅读:10 更新时间:2020-10-16 16:09:49

20秋学期(1709、1803、1809、1903、1909、2003、2009 )《网络爬虫与信息提取》在线作业


------------------------
1.Redis若要进入交互环境,需要打开终端输入()
A.redis-cli
B.redis
C.redis-cmd
D.redis-start
答案请点我要此答案,或联系QQ

2.使用UI Automatorr根据坐标来滑动桌面的操作是得到相应控件后使用命令()
A.swipe
B.move
C.scroll
D.fly
答案请点我要此答案,或联系QQ

3.Python中Object={'obj_1':'1','obj_2':'2'},则Objcet.get('boj_3','3')是()
A.1
B.2
C.3
D.无输出
答案请点我要此答案,或联系QQ

4.Python中若定义object="12345",则print(object[::-1])输出()
A.1
B.5
C.54321
D.程序报错
答案请点我要此答案,或联系QQ

5.在Scrapy的目录下,哪个文件负责定义需要爬取的数据?()
A.spiders文件夹
B.item.py
C.pipeline.py
D.settings.py
答案请点我要此答案,或联系QQ

6.Python中Object=(1, 2, 3, 4, 5),则Objcet是()
A.列表
B.元组
C.字典
D.集合
答案请点我要此答案,或联系QQ

7.如果很多爬虫同时对一个网站全速爬取,那么其实就是对网站进行了()攻击
A.XSS
B.DOS
C.DDOS
D.跨域
答案请点我要此答案,或联系QQ

8.当爬虫创建好了之后,可以使用"scrapy()<爬虫名>" 命令运行爬虫。
A.startup
B.starwar
C.drawl
D.crawl
答案请点我要此答案,或联系QQ

9.Redis是()数据库
A.关系数据库
B.键值数据库
C.列存数据库
D.图数据库
答案请点我要此答案,或联系QQ

10.Scrapy中使用Xpath获得的结果调用了.extract方法,结果以()形式生成
A.列表
B.元组
C.字典
D.集合
答案请点我要此答案,或联系QQ

11.使用UI Automator打开微信的操作是获取相应图标后使用命令()
A.touch
B.click
C.push
D.hover
答案请点我要此答案,或联系QQ

12.使用xpath方法的返回类型是()
A.列表
B.元组
C.字典
D.集合
答案请点我要此答案,或联系QQ

13.Python并导入uiautomator来操作设备的语句是from uiautomator import ()
A.Device
B.Devices
C.Jobs
D.Job
答案请点我要此答案,或联系QQ

14.使用UI Automatorr点亮屏幕的操作是得到相应控件后使用命令()
A.wakeup
B.light
C.bright
D.sleep
答案请点我要此答案,或联系QQ

15.PyMongo中逻辑查询表示不等于的符号是()
A.$gt
B.$lt
C.$eq
D.$ne
答案请点我要此答案,或联系QQ

16.Python中若定义object=(1, 2, 3, 4, 5),则print(object[:3])输出()
A.345
B.34
C.45
D.123
答案请点我要此答案,或联系QQ

17.Python中列表可以用()方法在末尾添加元素
A.add
B.append
C.plus
D.+
答案请点我要此答案,或联系QQ

18.Python读CSV文件需要哪个方法()
A.CSVReader
B.CsvReader
C.DictReader
D.FileReader
答案请点我要此答案,或联系QQ

19.服务器端记录信息确定用户身份的数据是
A.session
B.cookies
C.moonpies
D.localstorage
答案请点我要此答案,或联系QQ

20.Python中退出循环应用关键字()
A.break
B.continue
C.exit
D.return
答案请点我要此答案,或联系QQ

------------------------
1.以下哪些方法属于Python写CSV文件的方法()
A.writeheaders
B.writeheader
C.writerrows
D.writerow
答案请点我要此答案,或联系QQ

2.PyMongo更新操作有()
A.update
B.update_all
C.update_one
D.update_many
答案请点我要此答案,或联系QQ

3.如果爬虫爬取的是商业网站,并且目标网站使用了反爬虫机制,那么强行突破反爬虫机制可能构成()
A.非法侵入计算机系统罪
B.非法获取计算机信息系统数据罪
C.非法获取计算机数据罪
D.非法获取系统罪
答案请点我要此答案,或联系QQ

4.网络爬虫的用途有()
A.收集数据
B.尽职调查
C.提高流量
D.攻击服务器
答案请点我要此答案,或联系QQ

5.HTTP常用状态码表明表明客户端是发生错误的原因所在的有()
A.403
B.404
C.500
D.503
答案请点我要此答案,或联系QQ

6.Python中一个函数没有返回值则可以写()
A.没有return
B.return
C.return None
D.return NULL
答案请点我要此答案,或联系QQ

7.下列说法错误的是()
A.mitmproxy的强大之处在于它还自带一个mitmdump命令。这个命令可以用来运行符合一定规则的Python脚本,并在Python脚本里面直接操作HTTP和HTTPS的请求,以及返回的数据包。
B.命令行中执行mitmdump -s parse_request.py即可运行python 脚本
C.使用python可以自定义返回的数据包,如 response.headers,就是返回的头部信息
D.如果返回的是JSON类型的字符串,python无法进行解析。
答案请点我要此答案,或联系QQ

8.以下HTTP状态码表示服务器本身发生错误的是
A.400
B.503
C.302
D.500
答案请点我要此答案,或联系QQ

9.Python中有哪些实现多线程方法()
A.multiprocess.dummy
B.threading.Thread
C.process
D.PyMongoDB
答案请点我要此答案,或联系QQ

10.Python中通过Key来从字典object中读取对应的Value的方法有()
A.object[key]
B.object.get(key)
C.object.pop(key)
D.object.pop()
答案请点我要此答案,或联系QQ

------------------------
1.使用UI Automator使屏幕向上滚动一屏的操作是得到相应控件后使用命令scroll.vert.forward()
T.对
F.错
答案请点我要此答案,或联系QQ

2.爬虫登录需要识别验证码可以先把程序关闭,肉眼识别以后再重新运行
T.对
F.错
答案请点我要此答案,或联系QQ

3.Python正则表达式中“.*?”是非贪婪模式,获取最短的能满足条件的字符串。
T.对
F.错
答案请点我要此答案,或联系QQ

4.Python中使用下面代码打开文件也需要对文件进行close关闭操作 with open('文件路径', '文件操作方式', encoding='utf-8') as f
T.对
F.错
答案请点我要此答案,或联系QQ

5.mitmproxy的强大之处在于它还自带一个mitmdump命令。这个命令可以用来运行符合一定规则的Python脚本
T.对
F.错
答案请点我要此答案,或联系QQ

6.Python正则表达式中“.*”是贪婪模式,获取最长的满足条件的字符串。
T.对
F.错
答案请点我要此答案,或联系QQ

7.如果通过爬虫抓取某公司网站的公开数据,分析以后发现这个公司业绩非常好。于是将数据或者分析结果出售给某基金公司,从而获得销售收入。这是合法的。
T.对
F.错
答案请点我要此答案,或联系QQ

8.robots.txt是一种规范,在法律范畴内
T.对
F.错
答案请点我要此答案,或联系QQ

9.Charles是一个收费软件,如果没有注册,安装以后的前30天可以正常使用。30天以后,虽然功能不会缩水,但每过30分钟Charles会自动关闭一次
T.对
F.错
答案请点我要此答案,或联系QQ

10.设置了这个中间件以后,仍然需要输入账号密码可以成功得到登录以后才能看到的HTML
T.对
F.错
答案请点我要此答案,或联系QQ

11.Python中直接对浮点数进行计算有print(0.1+0.2),则结果为0.3
T.对
F.错
答案请点我要此答案,或联系QQ

12.一般来说在页面都通过GET将用户登录信息传递到服务器端。
T.对
F.错
答案请点我要此答案,或联系QQ

13.在Windows中下若要运行Redis可以运行redis-server /usr/local/etc/redis.conf
T.对
F.错
答案请点我要此答案,或联系QQ

14.在发送请求时需要注意requests提交的请求头不能与浏览器的请求头一致,因为这样才能隐藏好自己达到获取数据的目的
T.对
F.错
答案请点我要此答案,或联系QQ

15.引用中间件时后面的数字代表的是中间件的执行顺序,例如 'AdvanceSpider.middlewares.ProxyMiddleware': 543 中的543
T.对
F.错
答案请点我要此答案,或联系QQ

16.Python中列表生成以后还可以往里面继续添加数据,也可以从里面删除数据;
T.对
F.错
答案请点我要此答案,或联系QQ

17.使用Nginx反向代理到Scrapyd以后,Scrapyd本身只需要开通内网访问即可,不许经过输入密码
T.对
F.错
答案请点我要此答案,或联系QQ

18.Redis中使用lrange读取数据后数据也会删除
T.对
F.错
答案请点我要此答案,或联系QQ

19.Python中相比于findall方法,search方法对于从超级大的文本里面只找第1个数据特别有用,可以大大提高程序的运行效率。
T.对
F.错
答案请点我要此答案,或联系QQ

20.虽然MongoDB相比于MySQL来说,速度快了很多,但是频繁读写MongoDB还是会严重拖慢程序的执行速度。
T.对
F.错
答案请点我要此答案,或联系QQ

尝试在线代写作业

推荐信息