黄色网页视频 I 影音先锋日日狠狠久久 I 秋霞午夜毛片 I 秋霞一二三区 I 国产成人片无码视频 I 国产 精品 自在自线 I av免费观看网站 I 日本精品久久久久中文字幕5 I 91看视频 I 看全色黄大色黄女片18 I 精品不卡一区 I 亚洲最新精品 I 欧美 激情 在线 I 人妻少妇精品久久 I 国产99视频精品免费专区 I 欧美影院 I 欧美精品在欧美一区二区少妇 I av大片网站 I 国产精品黄色片 I 888久久 I 狠狠干最新 I 看看黄色一级片 I 黄色精品久久 I 三级av在线 I 69色综合 I 国产日韩欧美91 I 亚洲精品偷拍 I 激情小说亚洲图片 I 久久国产视频精品 I 国产综合精品一区二区三区 I 色婷婷国产 I 最新成人av在线 I 国产私拍精品 I 日韩成人影音 I 日日夜夜天天综合

python使用Scrapy框架編寫一個(gè)抓取書籍信息的爬蟲服務(wù)

系統(tǒng) 1902 0

Scrapy 是一個(gè)開源的?Python?數(shù)據(jù)抓取框架,速度快,強(qiáng)大,而且使用簡單。

來看一個(gè)官網(wǎng)主頁上的簡單并完整的爬蟲:

雖然只有10行左右的代碼,但是它的確是一個(gè)完整的爬蟲服務(wù):

當(dāng)執(zhí)行scrapy runspider xxx.py命令的時(shí)候, Scrapy在項(xiàng)目里查找Spider(蜘蛛?)并通過爬蟲引擎來執(zhí)行它。

首先從定義在start_urls里的URL開始發(fā)起請求,然后通過parse()方法處理響應(yīng)。response參數(shù)就是返回的響應(yīng)對象。

在parse()方法中,通過一個(gè)CSS選擇器獲取想要抓取的數(shù)據(jù)。

Scrapy所有的請求都是異步的,也就是說Scrapy不需要等一個(gè)請求完成才能處理下一條請求,而是同時(shí)發(fā)起另一條請求。

而且,異步請求的另一個(gè)好處是當(dāng)某個(gè)請求失敗了,其他的請求不會(huì)受到影響。

安裝(Mac)

pip install scrapy

Scrapy中幾個(gè)需要了解的概念

Spiders

Spider類想要表達(dá)的是:如何抓取一個(gè)確定了的網(wǎng)站的數(shù)據(jù)。比如在start_urls里定義的去哪個(gè)鏈接抓取,parse()方法中定義的要抓取什么樣的數(shù)據(jù)。

當(dāng)一個(gè)Spider開始執(zhí)行的時(shí)候,它首先從start_urls()中的第一個(gè)鏈接開始發(fā)起請求,然后在callback里處理返回的數(shù)據(jù)。

Items

Item類提供格式化的數(shù)據(jù),可以理解為數(shù)據(jù)Model類。

Selectors

Scrapy的Selector類基于lxml庫,提供HTML或XML轉(zhuǎn)換功能。以response對象作為參數(shù)生成的Selector實(shí)例即可通過實(shí)例對象的xpath()方法獲取節(jié)點(diǎn)的數(shù)據(jù)。

編寫一個(gè)Web爬蟲

接下來將上一個(gè)Beautiful Soup版的抓取書籍信息的例子(使用Beautiful Soup編寫一個(gè)爬蟲 系列隨筆匯總)改寫成Scrapy版本。

新建項(xiàng)目

scrapy startproject book_project

這行命令會(huì)創(chuàng)建一個(gè)名為book_project的項(xiàng)目。

編寫Item類

即實(shí)體類,代碼如下:

python使用Scrapy框架編寫一個(gè)抓取書籍信息的爬蟲服務(wù)_第1張圖片

編寫Spider類

設(shè)置這個(gè)Spider的名稱,允許爬取的域名和從哪個(gè)鏈接開始:

python使用Scrapy框架編寫一個(gè)抓取書籍信息的爬蟲服務(wù)_第2張圖片

遍歷分頁數(shù)據(jù)的方法

python使用Scrapy框架編寫一個(gè)抓取書籍信息的爬蟲服務(wù)_第3張圖片

'//a'的意思所有的a標(biāo)簽;

'//a[contains(@title, "Last Page →")' 的意思是在所有的a標(biāo)簽中,title屬性包涵"Last Page →"的a標(biāo)簽;

extract() 方法解析并返回符合條件的節(jié)點(diǎn)數(shù)據(jù)。

從allitebooks.com獲取書籍信息方法

python使用Scrapy框架編寫一個(gè)抓取書籍信息的爬蟲服務(wù)_第4張圖片

從amazon.com獲取書籍價(jià)格方法? ? ? ? ? ??

python使用Scrapy框架編寫一個(gè)抓取書籍信息的爬蟲服務(wù)_第5張圖片

啟動(dòng)服務(wù)開始抓取

scrapy crawl bookinfo -o books.csv

-o books.csv?參數(shù)的意思是將抓取的Item集合輸出到csv文件。

結(jié)果:


更多文章、技術(shù)交流、商務(wù)合作、聯(lián)系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號(hào)聯(lián)系: 360901061

您的支持是博主寫作最大的動(dòng)力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點(diǎn)擊下面給點(diǎn)支持吧,站長非常感激您!手機(jī)微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點(diǎn)擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動(dòng)力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會(huì)非常 感謝您的哦!!!

發(fā)表我的評(píng)論
最新評(píng)論 總共0條評(píng)論