《數(shù)據(jù)采集技術(shù)》課件-Request 和 Response類(lèi)_第1頁(yè)
《數(shù)據(jù)采集技術(shù)》課件-Request 和 Response類(lèi)_第2頁(yè)
《數(shù)據(jù)采集技術(shù)》課件-Request 和 Response類(lèi)_第3頁(yè)
《數(shù)據(jù)采集技術(shù)》課件-Request 和 Response類(lèi)_第4頁(yè)
《數(shù)據(jù)采集技術(shù)》課件-Request 和 Response類(lèi)_第5頁(yè)
已閱讀5頁(yè),還剩18頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

Request和ResponseRequest和ResponseRequest類(lèi)源碼位置:Request類(lèi)源碼位置:Request類(lèi)Request類(lèi)是Scrapy框架中用于定義爬取請(qǐng)求的類(lèi)創(chuàng)建Request對(duì)象,可以指定要爬取:URL請(qǐng)求的方法HeadersCookiesRequest類(lèi)Request類(lèi)是Scrapy框架中用于定義爬取請(qǐng)求的類(lèi)創(chuàng)建Request對(duì)象,可以指定要爬?。篣RL請(qǐng)求的方法HeadersCookiesRequest類(lèi)Request對(duì)象包含了HTTP請(qǐng)求的基本信息Request的構(gòu)造參數(shù)梳理如下:urlRequest的頁(yè)面鏈接,即要爬取的地址callbackRequest的回調(diào)方法methodRequest的方法,GET、POST、PUT、DELETE等Request類(lèi)Request對(duì)象包含了HTTP請(qǐng)求的基本信息Request的構(gòu)造參數(shù)梳理如下:metaRequest請(qǐng)求攜帶的額外參數(shù)可以指定任意處理參數(shù),特定的參數(shù)經(jīng)由Scrapy各個(gè)組件的處理,得到不同的效果??梢杂脕?lái)向回調(diào)方法傳遞信息??梢砸宰值涞男问絺鬟f,包含的信息不受限制。Request類(lèi)Request對(duì)象包含了HTTP請(qǐng)求的基本信息Request的構(gòu)造參數(shù)梳理如下:更方便地實(shí)現(xiàn)POST請(qǐng)求使用FormRequest或JsonRequest(Scrapy專(zhuān)門(mén)為POST請(qǐng)求提供了兩個(gè)類(lèi))bodyRequest的內(nèi)容,往往RequestBody對(duì)應(yīng)的是POST請(qǐng)求Request類(lèi)Request對(duì)象包含了HTTP請(qǐng)求的基本信息Request的構(gòu)造參數(shù)梳理如下:bodyRequest的內(nèi)容,往往RequestBody對(duì)應(yīng)的是POST請(qǐng)求headersRequestHeaders,字典形式cookiesRequest攜帶的Cookies,字典或列表形式encodingRequest的編碼,默認(rèn)是utf-8prorityRequest優(yōu)先級(jí),數(shù)值越大,就越被優(yōu)先調(diào)度并執(zhí)行Request類(lèi)Request對(duì)象包含了HTTP請(qǐng)求的基本信息Request的構(gòu)造參數(shù)梳理如下:dont_filterRequest不去重,設(shè)置為T(mén)rue代表這個(gè)Request會(huì)被忽略去重操作,默認(rèn)是Falseerrback錯(cuò)誤處理方法cb_kwargs回調(diào)方法的額外參數(shù),可以作為字典傳遞flags請(qǐng)求的標(biāo)志,可以用于記錄類(lèi)似的處理Request類(lèi)callback示例:defparse_page_1(self,response):returnscrapy.Request('/some_page.html',

callback=self.parse_page_2)

defparse_page_2(self,response):

(f'Visited{response.url}')Request類(lèi)cb_kwargs示例:defparse_page_1(self,response):

request=scrapy.Request('/some_page.html',callback=self.parse_page_2,cb_kwargs=dict(main_url=response.url))request.cb_kwargs['foo']='bar'yieldrequest

defparse_page_2(self,response,main_url,foo):yielddict(main_url=main_url,other_url=response.url,foo=foo)Request類(lèi)errback示例:importscrapyfromscrapy.spidermiddlewares.httperrorimportHttpErrorfromernet.errorimportDNSLookupErrorfromernet.errorimportTimeoutError,TCPTimedOutErrordefparse(self,response):request=scrapy.Request('/some_page.html',callback=self.parse_page_1,

errback=self.parse_page_2,cb_kwargs=dict(main_url=response.url))yieldrequestdefparse_page_1(self,response,main_url):passdefparse_page_2(self,failure):iffailure.check(HttpError):response=failure.value.responseself.logger.error(f"HttpErroron{response.url}")eliffailure.check(DNSLookupError):request=failure.requestself.logger.error(f"DNSLookupErroron{request.url}")eliffailure.check(TimeoutError,TCPTimedOutError):request=failure.requestself.logger.error(f'TimeoutErroron{request.url}')eliffailure.check(TimeoutError,TCPTimedOutError):request=failure.requestself.logger.error('TimeoutErroron%s',request.url)Response類(lèi)errback示例:錯(cuò)誤處理方法Response類(lèi)源碼位置:Response類(lèi)源碼位置:Response類(lèi)是HTTP請(qǐng)求得到的響應(yīng)結(jié)果Response的可用的屬性和方法梳理如下:urlRequestURLstatusResponse狀態(tài)碼headersResponseHeaders,字典形式,字段一一對(duì)應(yīng)bodyResponseBody,訪問(wèn)頁(yè)面之后得到的源代碼,其結(jié)果是bytes類(lèi)型requestResponse對(duì)應(yīng)的Request對(duì)象Response類(lèi)Response類(lèi)是HTTP請(qǐng)求得到的響應(yīng)結(jié)果Response的可用的屬性和方法梳理如下:ip_address代表服務(wù)器的IP地址urljoin對(duì)URL的處理方法follow/follow_all根據(jù)URL來(lái)生成后續(xù)Request的方法Response類(lèi)Response類(lèi)urljoin示例:fromscrapy.httpimportResponsefromscrapy.utils.urlimporturljoin

response=Response(url='/')

relative_url='/path/to/page'full_url=response.urljoin(relative_url)print(full_url)#輸出:/path/to/page

base_url='/'relative_url='/path/to/page'full_url=response.urljoin(base_url,relative_url)print(full_url)#輸出:/path/to/pageResponse類(lèi)follow示例:importscrapy

classMySpider(scrapy.Spider):name='my_spider'defstart_requests(self):urls=['/page1','/page2']forurlinurls:yieldscrapy.Request(url=url,callback=self.parse)

defparse(self,response:scrapy.Response):title=response.css('title::text').get()links=response.css('a::attr(href)').getall()

print('Title:'

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論