21春南開大學(xué)《網(wǎng)絡(luò)爬蟲與信息提取》在線作業(yè)-2參考答案_第1頁
21春南開大學(xué)《網(wǎng)絡(luò)爬蟲與信息提取》在線作業(yè)-2參考答案_第2頁
21春南開大學(xué)《網(wǎng)絡(luò)爬蟲與信息提取》在線作業(yè)-2參考答案_第3頁
21春南開大學(xué)《網(wǎng)絡(luò)爬蟲與信息提取》在線作業(yè)-2參考答案_第4頁
21春南開大學(xué)《網(wǎng)絡(luò)爬蟲與信息提取》在線作業(yè)-2參考答案_第5頁
已閱讀5頁,還剩4頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

21春南開大學(xué)《網(wǎng)絡(luò)爬蟲與信息提取》在線作業(yè)-2參考答案注意:圖片可根據(jù)實(shí)際需要調(diào)整大小通常使用()工具來模擬瀏覽器進(jìn)行爬蟲請(qǐng)求

A.Selenium

B.Chrome

C.ChromeDriver

D.WebDriver

下面代碼一共執(zhí)行循環(huán)多少次():foriinrange(10):print(i**i)

A.9

B.10

C.11

D.0

Redis是()數(shù)據(jù)庫

A.關(guān)系數(shù)據(jù)庫

B.鍵值數(shù)據(jù)庫

C.列存數(shù)據(jù)庫

D.圖數(shù)據(jù)庫

Python中跳過本次循環(huán)應(yīng)用關(guān)鍵字()

A.break

B.continue

C.exit

D.return

打碼平臺(tái)一般通過()識(shí)別驗(yàn)證碼。

A.人工識(shí)別

B.機(jī)器學(xué)習(xí)識(shí)別

C.光學(xué)字符識(shí)別

D.深度學(xué)習(xí)識(shí)別

PyMongo中邏輯查詢表示等于的符號(hào)是()

A.$gt

B.$lt

C.$eq$ne

帶上通過Chrome瀏覽器從評(píng)論頁面復(fù)制而來的()再發(fā)起請(qǐng)求,可以減少爬蟲被網(wǎng)站封鎖的概率

A.Cookie

B.Html

C.Headers

D.CSS

Python中以下哪個(gè)容器里的元素不能重復(fù)()

A.列表

B.元組

C.字典

D.集合

Redis中往集合中讀數(shù)據(jù),使用關(guān)鍵字()

A.pop

B.spop

C.lpop

D.range

Redis是一個(gè)開源的使用()語言編寫

A.ANSIC

B.C++

C.JAVA

D.Python

可以通過()繞過網(wǎng)站登錄。

A.session

B.cookies

C.moonpies

D.localstorage

使用了RedisSpider作為爬蟲的父類以后,爬蟲會(huì)直接監(jiān)控()中的數(shù)據(jù),并不讀取start_urls中的數(shù)據(jù)。

A.Redis

B.RedisSpider

C.Spider

D.MongoDB

HTTP常用狀態(tài)碼表明服務(wù)器上沒有請(qǐng)求的資源的是()

A.500

B.503

C.403

D.404

Redis中從集合中查看有多少個(gè)值,用關(guān)鍵字()

A.scard

B.card

C.count

D.distinct

采用以下()技術(shù)可以實(shí)現(xiàn)異步加載

A.HTML

B.AJAX

C.CSS

D.HTTP

當(dāng)爬蟲創(chuàng)建好了之后,可以使用"scrapy()"命令運(yùn)行爬蟲。

A.startup

B.starwar

C.drawl

D.crawl

使用UIAutomatorr輸入文字的操作是得到相應(yīng)控件后使用命令()

A.settext

B.set

C.set_text

D.text

要使用Python來操作UIAutomator從而控制手機(jī),需要安裝一個(gè)第三方庫()

A.uiautomator

B.automator

C.ui_automator

D.pyautomator

使用xpath方法的返回類型是()

A.列表

B.元組

C.字典

D.集合

Python中列表可以用()方法在末尾添加元素

A.add

B.append

C.plus

D.+

Redis中的值可以支持()

A.列表

B.哈希

C.集合

D.有序集合

以下哪些方法屬于Python寫CSV文件的方法()

A.writeheaders

B.writeheader

C.writerrows

D.writerow

下列關(guān)于mitmproxy的使用說法正確的是()

A.mitmproxy的端口為8080端口

B.設(shè)置好代理以后,在手機(jī)上打開一個(gè)App或者打開一個(gè)網(wǎng)頁,可以看到mitmproxy上面有數(shù)據(jù)滾動(dòng)

C.用鼠標(biāo)在終端窗口上單擊其中的任意一個(gè)請(qǐng)求,可以顯示這個(gè)數(shù)據(jù)包的詳情信息

D.如果要訪問HTTPS網(wǎng)站,還需要安裝mitmproxy的證書

如果爬蟲爬取的是商業(yè)網(wǎng)站,并且目標(biāo)網(wǎng)站使用了反爬蟲機(jī)制,那么強(qiáng)行突破反爬蟲機(jī)制可能構(gòu)成()

A.非法侵入計(jì)算機(jī)系統(tǒng)罪

B.非法獲取計(jì)算機(jī)信息系統(tǒng)數(shù)據(jù)罪

C.非法獲取計(jì)算機(jī)數(shù)據(jù)罪

D.非法獲取系統(tǒng)罪

Python中一個(gè)函數(shù)可以有()個(gè)return語句

A.0

B.1

C.多個(gè)

D.2

HTTP常用狀態(tài)碼表明表明服務(wù)器本身發(fā)生錯(cuò)誤的有()

A.403

B.404

C.500

D.503

如果目標(biāo)網(wǎng)站有反爬蟲聲明,那么對(duì)方在被爬蟲爬取以后,可以根據(jù)()來起訴使用爬蟲的公司

A.服務(wù)器日志

B.數(shù)據(jù)庫日志記錄

C.程序日志記錄

D.服務(wù)器監(jiān)控

常用的會(huì)話跟蹤技術(shù)是()

A.session

B.cookies

C.moonpies

D.localstorage

Python中()與元組由類似的數(shù)據(jù)讀取方式

A.字符串

B.列表

C.字典

D.集合

cookies的缺點(diǎn)是()

A.實(shí)現(xiàn)自動(dòng)登錄

B.跟蹤用戶狀態(tài)

C.http中明文傳輸

D.增加http請(qǐng)求的流量

Python中列表生成以后還可以往里面繼續(xù)添加數(shù)據(jù),也可以從里面刪除數(shù)據(jù)。()

T.對(duì)

F.錯(cuò)

Redis的列表是一個(gè)單向隊(duì)列。()

T.對(duì)

F.錯(cuò)

requests中g(shù)et請(qǐng)求方法的使用為requests.get('網(wǎng)址',data=data)。()

T.對(duì)

F.錯(cuò)

scrapy與selenium結(jié)合可以實(shí)現(xiàn)直接處理需要異步加載的頁面。()

T.對(duì)

F.錯(cuò)

為了在安卓手機(jī)上安裝證書,需要先發(fā)送證書到手機(jī)里面。在Charles中選擇“Help”-“SSLProxying”-“SaveCharlesRootCertificate”命令,可以將Charles的證書保存到計(jì)算機(jī)桌面。()

T.對(duì)

F.錯(cuò)

XPath提取出來的內(nèi)容是一個(gè)SelectorList對(duì)象,它的第0個(gè)元素就是網(wǎng)頁的源代碼。()

T.對(duì)

F.錯(cuò)

當(dāng)Charles抓包以后,在MacOS系統(tǒng)下可以按Command+F組合鍵,在Windows系統(tǒng)下按Ctrl+F組合鍵打開Charles進(jìn)行搜索。()

T.對(duì)

F.錯(cuò)

Python中直接對(duì)浮點(diǎn)數(shù)進(jìn)行計(jì)算有print(0.1+0.2),則結(jié)果為0.3。()

T.對(duì)

F.錯(cuò)

在對(duì)XPath返回的對(duì)象再次執(zhí)行XPath的時(shí)候,子XPath開頭需要添加斜線。()

T.對(duì)

F.錯(cuò)

Python中寫CSV文件的writerows方法參數(shù)為字典類型。()

T.對(duì)

F.錯(cuò)

網(wǎng)站返回的Headers中經(jīng)常有Cookies,可以用mitmdump腳本使用print函數(shù)把Cookies打印出來。()

T.對(duì)

F.錯(cuò)

在安裝Scarpy的依賴庫時(shí),由于VisualC++BuildTools的安裝速度很慢,為了節(jié)省時(shí)間,可以和安裝Twisted同時(shí)進(jìn)行。()

T.對(duì)

F.錯(cuò)

Charles和Chrome開發(fā)者工具相比,只是多了一個(gè)搜索功能。()

T.對(duì)

F.錯(cuò)

Scrapy的工程名字不能使用scrapy,否則爬蟲會(huì)無法運(yùn)行。除此以外工程名不受限制。()

T.對(duì)

F.錯(cuò)

在發(fā)送請(qǐng)求時(shí)需要注意requests提交的請(qǐng)求頭不能與瀏覽器的請(qǐng)求頭一致,因?yàn)檫@樣才能隱藏好自己達(dá)到獲取數(shù)據(jù)的目的。()

T.對(duì)

F.錯(cuò)

Cookies一般包含在請(qǐng)求頭Headers中。()

T.對(duì)

F.錯(cuò)

Python中相比于findall方法,search方法對(duì)于從超級(jí)大的文本里面只找第1個(gè)數(shù)據(jù)特別有用,可以大大提高程序的運(yùn)行效率。()

T.對(duì)

F.錯(cuò)

當(dāng)使用Scarpy創(chuàng)建爬蟲時(shí),當(dāng)爬取網(wǎng)易云音樂首頁信息時(shí),scrapygenspider的第二個(gè)參數(shù)直接輸入就可以了。()

T.對(duì)

F.錯(cuò)

chrome開發(fā)者工具沒法對(duì)數(shù)據(jù)進(jìn)行搜索。如果想知道一個(gè)特定的異步加載內(nèi)容來自哪個(gè)請(qǐng)求,必須在“Network”選項(xiàng)卡里面一個(gè)請(qǐng)求一個(gè)請(qǐng)求地進(jìn)行查看。()

T.對(duì)

F.錯(cuò)

插入數(shù)據(jù)時(shí),MongoDB會(huì)自動(dòng)添加一列“_id”,也就是自增ID,每次自動(dòng)加1。()

T.對(duì)

F.錯(cuò)

【參考答案已附】

參考答案:A

參考答案:B

參考答案:B

參考答案:B

參考答案:A

參考答案:C

參考答案:C

參考答案:D

參考答案:B

參考答案:A

參考答案:B

參考答案:A

參考答案:D

參考答案:A

參考答案:B

參考答案:D

參考答案:C

參考答案:A

參考答案:A

參考答案:B

參考答案:ABCD

參考答案:ACD

參考答案:ABCD

參考答案:AB

參考答案:ABCD

參考答案:CD

參考答案:ABCD

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論