




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
21春南開大學(xué)《網(wǎng)絡(luò)爬蟲與信息提取》在線作業(yè)-2參考答案注意:圖片可根據(jù)實際需要調(diào)整大小通常使用()工具來模擬瀏覽器進行爬蟲請求
A.Selenium
B.Chrome
C.ChromeDriver
D.WebDriver
下面代碼一共執(zhí)行循環(huán)多少次():foriinrange(10):print(i**i)
A.9
B.10
C.11
D.0
Redis是()數(shù)據(jù)庫
A.關(guān)系數(shù)據(jù)庫
B.鍵值數(shù)據(jù)庫
C.列存數(shù)據(jù)庫
D.圖數(shù)據(jù)庫
Python中跳過本次循環(huán)應(yīng)用關(guān)鍵字()
A.break
B.continue
C.exit
D.return
打碼平臺一般通過()識別驗證碼。
A.人工識別
B.機器學(xué)習識別
C.光學(xué)字符識別
D.深度學(xué)習識別
PyMongo中邏輯查詢表示等于的符號是()
A.$gt
B.$lt
C.$eq$ne
帶上通過Chrome瀏覽器從評論頁面復(fù)制而來的()再發(fā)起請求,可以減少爬蟲被網(wǎng)站封鎖的概率
A.Cookie
B.Html
C.Headers
D.CSS
Python中以下哪個容器里的元素不能重復(fù)()
A.列表
B.元組
C.字典
D.集合
Redis中往集合中讀數(shù)據(jù),使用關(guān)鍵字()
A.pop
B.spop
C.lpop
D.range
Redis是一個開源的使用()語言編寫
A.ANSIC
B.C++
C.JAVA
D.Python
可以通過()繞過網(wǎng)站登錄。
A.session
B.cookies
C.moonpies
D.localstorage
使用了RedisSpider作為爬蟲的父類以后,爬蟲會直接監(jiān)控()中的數(shù)據(jù),并不讀取start_urls中的數(shù)據(jù)。
A.Redis
B.RedisSpider
C.Spider
D.MongoDB
HTTP常用狀態(tài)碼表明服務(wù)器上沒有請求的資源的是()
A.500
B.503
C.403
D.404
Redis中從集合中查看有多少個值,用關(guān)鍵字()
A.scard
B.card
C.count
D.distinct
采用以下()技術(shù)可以實現(xiàn)異步加載
A.HTML
B.AJAX
C.CSS
D.HTTP
當爬蟲創(chuàng)建好了之后,可以使用"scrapy()"命令運行爬蟲。
A.startup
B.starwar
C.drawl
D.crawl
使用UIAutomatorr輸入文字的操作是得到相應(yīng)控件后使用命令()
A.settext
B.set
C.set_text
D.text
要使用Python來操作UIAutomator從而控制手機,需要安裝一個第三方庫()
A.uiautomator
B.automator
C.ui_automator
D.pyautomator
使用xpath方法的返回類型是()
A.列表
B.元組
C.字典
D.集合
Python中列表可以用()方法在末尾添加元素
A.add
B.append
C.plus
D.+
Redis中的值可以支持()
A.列表
B.哈希
C.集合
D.有序集合
以下哪些方法屬于Python寫CSV文件的方法()
A.writeheaders
B.writeheader
C.writerrows
D.writerow
下列關(guān)于mitmproxy的使用說法正確的是()
A.mitmproxy的端口為8080端口
B.設(shè)置好代理以后,在手機上打開一個App或者打開一個網(wǎng)頁,可以看到mitmproxy上面有數(shù)據(jù)滾動
C.用鼠標在終端窗口上單擊其中的任意一個請求,可以顯示這個數(shù)據(jù)包的詳情信息
D.如果要訪問HTTPS網(wǎng)站,還需要安裝mitmproxy的證書
如果爬蟲爬取的是商業(yè)網(wǎng)站,并且目標網(wǎng)站使用了反爬蟲機制,那么強行突破反爬蟲機制可能構(gòu)成()
A.非法侵入計算機系統(tǒng)罪
B.非法獲取計算機信息系統(tǒng)數(shù)據(jù)罪
C.非法獲取計算機數(shù)據(jù)罪
D.非法獲取系統(tǒng)罪
Python中一個函數(shù)可以有()個return語句
A.0
B.1
C.多個
D.2
HTTP常用狀態(tài)碼表明表明服務(wù)器本身發(fā)生錯誤的有()
A.403
B.404
C.500
D.503
如果目標網(wǎng)站有反爬蟲聲明,那么對方在被爬蟲爬取以后,可以根據(jù)()來起訴使用爬蟲的公司
A.服務(wù)器日志
B.數(shù)據(jù)庫日志記錄
C.程序日志記錄
D.服務(wù)器監(jiān)控
常用的會話跟蹤技術(shù)是()
A.session
B.cookies
C.moonpies
D.localstorage
Python中()與元組由類似的數(shù)據(jù)讀取方式
A.字符串
B.列表
C.字典
D.集合
cookies的缺點是()
A.實現(xiàn)自動登錄
B.跟蹤用戶狀態(tài)
C.http中明文傳輸
D.增加http請求的流量
Python中列表生成以后還可以往里面繼續(xù)添加數(shù)據(jù),也可以從里面刪除數(shù)據(jù)。()
T.對
F.錯
Redis的列表是一個單向隊列。()
T.對
F.錯
requests中g(shù)et請求方法的使用為requests.get('網(wǎng)址',data=data)。()
T.對
F.錯
scrapy與selenium結(jié)合可以實現(xiàn)直接處理需要異步加載的頁面。()
T.對
F.錯
為了在安卓手機上安裝證書,需要先發(fā)送證書到手機里面。在Charles中選擇“Help”-“SSLProxying”-“SaveCharlesRootCertificate”命令,可以將Charles的證書保存到計算機桌面。()
T.對
F.錯
XPath提取出來的內(nèi)容是一個SelectorList對象,它的第0個元素就是網(wǎng)頁的源代碼。()
T.對
F.錯
當Charles抓包以后,在MacOS系統(tǒng)下可以按Command+F組合鍵,在Windows系統(tǒng)下按Ctrl+F組合鍵打開Charles進行搜索。()
T.對
F.錯
Python中直接對浮點數(shù)進行計算有print(0.1+0.2),則結(jié)果為0.3。()
T.對
F.錯
在對XPath返回的對象再次執(zhí)行XPath的時候,子XPath開頭需要添加斜線。()
T.對
F.錯
Python中寫CSV文件的writerows方法參數(shù)為字典類型。()
T.對
F.錯
網(wǎng)站返回的Headers中經(jīng)常有Cookies,可以用mitmdump腳本使用print函數(shù)把Cookies打印出來。()
T.對
F.錯
在安裝Scarpy的依賴庫時,由于VisualC++BuildTools的安裝速度很慢,為了節(jié)省時間,可以和安裝Twisted同時進行。()
T.對
F.錯
Charles和Chrome開發(fā)者工具相比,只是多了一個搜索功能。()
T.對
F.錯
Scrapy的工程名字不能使用scrapy,否則爬蟲會無法運行。除此以外工程名不受限制。()
T.對
F.錯
在發(fā)送請求時需要注意requests提交的請求頭不能與瀏覽器的請求頭一致,因為這樣才能隱藏好自己達到獲取數(shù)據(jù)的目的。()
T.對
F.錯
Cookies一般包含在請求頭Headers中。()
T.對
F.錯
Python中相比于findall方法,search方法對于從超級大的文本里面只找第1個數(shù)據(jù)特別有用,可以大大提高程序的運行效率。()
T.對
F.錯
當使用Scarpy創(chuàng)建爬蟲時,當爬取網(wǎng)易云音樂首頁信息時,scrapygenspider的第二個參數(shù)直接輸入就可以了。()
T.對
F.錯
chrome開發(fā)者工具沒法對數(shù)據(jù)進行搜索。如果想知道一個特定的異步加載內(nèi)容來自哪個請求,必須在“Network”選項卡里面一個請求一個請求地進行查看。()
T.對
F.錯
插入數(shù)據(jù)時,MongoDB會自動添加一列“_id”,也就是自增ID,每次自動加1。()
T.對
F.錯
【參考答案已附】
參考答案:A
參考答案:B
參考答案:B
參考答案:B
參考答案:A
參考答案:C
參考答案:C
參考答案:D
參考答案:B
參考答案:A
參考答案:B
參考答案:A
參考答案:D
參考答案:A
參考答案:B
參考答案:D
參考答案:C
參考答案:A
參考答案:A
參考答案:B
參考答案:ABCD
參考答案:ACD
參考答案:ABCD
參考答案:AB
參考答案:ABCD
參考答案:CD
參考答案:ABCD
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025屆河北省張家口市高三上學(xué)期期末質(zhì)量檢測地理試題及答案
- 2025年度專業(yè)車庫租賃權(quán)轉(zhuǎn)讓合同
- 2025年度農(nóng)村土地承包經(jīng)營權(quán)流轉(zhuǎn)與農(nóng)業(yè)文化遺產(chǎn)保護合同
- 2025年度中小企業(yè)流動資金授信借款合同
- 2025年度城市河道治理房屋拆遷補償合同
- 2025年度人才共享與借用項目合作協(xié)議
- 2025年度協(xié)商解除勞動合同與員工住房安置合同
- 2025年度公司銷售業(yè)務(wù)員協(xié)議書:人工智能賦能下的銷售代理合同
- 2025年度子女對父母贍養(yǎng)及社區(qū)互助保障協(xié)議
- 化妝品店裝修合同
- 幼兒園小班語言:《我上幼兒園》 PPT課件
- 高標準農(nóng)田項目規(guī)劃設(shè)計和評審要點
- 小學(xué)三年級下冊綜合實踐活動.水果拼盤-(14張)ppt
- 部編版二年級語文下冊第三單元課文《傳統(tǒng)節(jié)日》PPT課件
- 北京市城市建設(shè)節(jié)約用地標準
- 開學(xué)第一課我們開學(xué)啦主題班會PPT課件(帶內(nèi)容)
- 電源線檢驗報告RVV
- 體育訓(xùn)練隊隊規(guī)
- 八字命理漫畫版
- 電梯工程開工報告(直梯)(共1頁)
- 復(fù)件德力西質(zhì)量獎自評報告2戰(zhàn)略
評論
0/150
提交評論