第13講:爬蟲框架(下)_第1頁
第13講:爬蟲框架(下)_第2頁
第13講:爬蟲框架(下)_第3頁
第13講:爬蟲框架(下)_第4頁
第13講:爬蟲框架(下)_第5頁
已閱讀5頁,還剩3頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

趣學Python爬蟲爬蟲框架之scrapy(下)本課目錄INDEXscrapy框架的自定義請求scrapy框架的請求中傳遞itemsscrapy框架發(fā)起post請求爬蟲框架scrapy結(jié)構InternetItems/Pipelines

管道Downloader

下載器主引擎2345STARTSpider

爬蟲器7 6 1ENGINE88包含中間件包含中間件請求發(fā)起數(shù)據(jù)解析執(zhí)行請求或下載動作Scheduler

調(diào)度器任務存儲任務執(zhí)行調(diào)度數(shù)據(jù)持久化保存scrapy框架的自定義請求我們在上一節(jié)課中學習了scrapy框架的基本結(jié)構,也完成了第一個爬蟲,

但是就目前我們的案例來說,這個是肯定不足夠的。

因為他只能請求一頁。

那么今天我們要學習如何隨心所欲的在框架中控制請求。這段代碼滿足我們發(fā)起請求,但是僅僅一次但是我們實際案例中需要爬取多頁如何解?多個鏈接、多個頁面、聯(lián)級頁面scrapy框架的自定義請求思路:要給框架多個鏈接讓他可以多次發(fā)起請求在parse完成解析數(shù)據(jù)以后在parse里觸發(fā)另一個請求先想辦法改造或者說依托start_urls產(chǎn)生多個鏈接parse的結(jié)束代表著當前頁面爬取動作完成,這里是一個觸發(fā)點scrapy框架發(fā)起post請求我們目前學到的,當框架第一次發(fā)起請求都是以get請求發(fā)起,那么如果我想請求js怎么辦?scrapy給我們提供了一個

start_requests實例方法,可以在第一個請求發(fā)起時改變請求方式實踐見真知,這一

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論