21秋学期(1709、1803、1809、1903、1909、2003、2009、2103)《网络爬虫与信息提取》在线作业
试卷总分:100 得分:100
一、单选题 (共 20 道试题,共 40 分)
1.Python中线程池map()方法第二个参数是()
A.列表
B.元组
C.字典
D.集合
2.通过()爬取伪装成异步加载的后端渲染数据
A.正则表达式
B.Json字符串
C.JavaScript
D.Get
3.下面Python代码输出为(): def default_para_without_trap(para=[], value=0): if not para: para = [] para.append(value) return para print(‘第一步:{}’.format(default_para_trap(value=100))) print(‘第二步:{}’.format(default_para_trap(value=50)))
A.第一步:[100] 第二步:[100,50]
B.第一步:[100] 第二步:[50]
C.第一步:[100] 第二步:[]
D.第一步:[100] 第二步:[100]
4.Python中若定义object=(1, 2, 3, 4, 5),则print(object[1:3])输出()
A.12
B.123
C.23
D.234
5.在Scrapy的目录下,哪个文件负责数据抓取以后的处理工作?()
A.spiders文件夹
B.item.py
C.pipeline.py
D.settings.py
6.浏览器用来记录用户状态信息的数据叫
A.session
B.cookies
C.moonpies
D.selenium
7.PyMongo中查询所有age > 29的记录是()
A.collection.find({‘age’: {‘$gt’: 29}})
B.collection.find({‘age’>29})
C.collection.find_all({‘age’: {‘$gt’: 29}})
D.collection.find_all({‘age’>29})
8.Redis中往集合中添加数据,使用关键字()
A.sadd
B.add
C.append
D.sappend
9.Redis中如果不删除列表中的数据,又要把数据读出来,就需要使用关键字()
A.range
B.lrange
C.srange
D.pop
10.在Python中,为了使用XPath,需要安装一个第三方库()
A.lxml
B.xml
C.xpath
D.path
11.Python操作CSV文件可通过()容器的方式操作单元格
A.列表
B.元组
C.字典
D.集合
12.某些网站在发起Ajax请求时会携带()字符串用于身份验证
A.Token
B.Cookie
C.ReqTime
D.sum
13.PyMongo中逻辑查询表示不等于的符号是()
A.$gt
B.$lt
C.$eq
D.$ne
14.下列说法错误的是()
A.Charles只能截获HTTP和HTTPS的数据包,如果网站使用的是websocket或者是flashsocket,那么Charles就无能为力。
B.有一些App会自带证书,使用其他证书都无法正常访问后台接口。在这种情况下,Charles自带的证书就不能正常使用,也就没有办法抓取这种App的数据
C.有一些App的数据经过加密,App接收到数据以后在其内部进行解密。Charles无法获取这种App的数据
D.对于上述情况,Charles能抓取到经过加密的数据。但是如果无法知道数据的具体加密方法,就没有办法解读Charles抓取到的数据。
15.使用Xpath获取文本使用()
A.text
B.text()
C.content
D.content()
16.启动MongoDB使用命令mongod –() usr/local/etc/mongod.conf
A.config
B.install
C.start
D.begin
17.Redis中查看一个列表长度,使用关键字()
A.len
B.length
C.llen
D.count
18.Python中若定义object=”12345″,则print(object[::-1])输出()
A.1
B.5
C.54321
D.程序报错
奥鹏作业答案请进open5.net或请联系QQ/微信:18866732
19.在Scrapy的目录下,哪个文件负责存放爬虫的各种配置信息?()
A.spiders文件夹
B.item.py
C.pipeline.py
D.settings.py
20.当爬虫运行到yield scrapy.Request()或者yield item的时候,下列哪个爬虫中间件的方法被调用?
A.process_spider_output()
B.process_spider_exception()
C.process_spider_input()
D.process_start_ requests()
二、多选题 (共 10 道试题,共 20 分)
21.在配置ios使用Charles的操作中,正确的有()
A.对于苹果设备,首先要保证计算机和苹果设备联在同一个Wi-Fi上。
B.选择“HTTP代理”下面的“手动”选项卡,在“服务器”处输入计算机的IP地址,在“端口”处输入8888
C.输入完成代理以后按下苹果设备的Home键,设置就会自动保存。
D.安装完成证书以后,在设置中打开“关于本机”,找到最下面的“证书信任设置”,并在里面启动对Charles证书的完全信任
22.下载器中间件的作用有哪些?
A.更换代理IP
B.更换Cookies
C.更换User-Agent
D.自动重试
23.下列关于在IOS上配置charles的说法正确的是()
A.不同ios设备之间会有比较大的差别,所以配置的时候需要找到对应的安装证书的入口。
B.手机和电脑需要在同一个局域网下。
C.HTTP代理可以使用“自动”选项。
D.安装好证书以后,打开iOS设备上的任何一个App,可以看到Charles中有数据包在流动
24.如果爬虫爬取的是商业网站,并且目标网站使用了反爬虫机制,那么强行突破反爬虫机制可能构成()
A.非法侵入计算机系统罪
B.非法获取计算机信息系统数据罪
C.非法获取计算机数据罪
D.非法获取系统罪
25.Python中一个函数没有返回值则可以写()
A.没有return
B.return
C.return None
D.return NULL
26.使用BeautifulSoup对象后可以使用()来查找内容
A.find_all
B.find
C.search
D.search_all
27.PyMongo删除操作有()
A.delete
B.delete_all
C.delete_one
D.delete_many
28.以下哪些方法属于Python写CSV文件的方法()
A.writeheaders
B.writeheader
C.writerrows
D.writerow
29.MongoDB中获取名字为db的库的语句为()
A.client.db
B.client(‘db’)
C.client[‘db’]
D.client{‘db’}
30.Python中()容器有推导式
A.列表
B.元组
C.字典
D.集合
三、判断题 (共 20 道试题,共 40 分)
31.中间人攻击也是抓包的一种。
32.在请求头中设置User-Agent即可正常请求网站
33.UI Automator Viewer与Python uiautomator可以同时使用
34.device.sleep()方法是使用UI Automatorr关闭屏幕的命令
35.爬虫的源代码通过公开不会对被爬虫网站造成影响
36.虽然MongoDB相比于MySQL来说,速度快了很多,但是频繁读写MongoDB还是会严重拖慢程序的执行速度。
37.打码平台都是靠机器使用OCR技术识别图片上的文字。
38.Python中包含字典的列表页可以转换成JSON字符串
39.需要实名认证的打码网站更加安全可靠。
40.MongoDB URI的格式为: mongodb://服务器IP或域名:端口@用户名:密码
41.MongoDB中ObjectId可以反向恢复为时间
42.验证码必须通过手动填充识别。
43.使用UI Automatorr操作实体键的命令为device.press.实体按键名称()
44.在MacOS下若要运行Redis可以运行解压以后的文件夹下面的src文件夹中的redis-server文件启动redis服务 src/redis-server
45.开源库pytesseract的作用是将图像中文字转换为文本。
46.Redis的集合与Python的集合一样,没有顺序,值不重复
47.mitmproxy的强大之处在于它还自带一个mitmdump命令。这个命令可以用来运行符合一定规则的Python脚本
48.process_spider_input(response, spider)是在爬虫运行yield item或者yield scrapy.Request()的时候调用
49.上课传纸条。A要把纸条传给B,但是A与B距离太远,于是让C来转交纸条。此时,C先篡改纸条的内容再传给B,这是一种类似抓包的方式。
50.在安装Scarpy的依赖库时,由于Visual C++ Build Tools的安装速度很慢,为了节省时间,可以和安装Twisted同时进行
转载请注明:奥鹏作业之家 » 【奥鹏】南开21秋学期《网络爬虫与信息提取》在线作业