黄色网页视频 I 影音先锋日日狠狠久久 I 秋霞午夜毛片 I 秋霞一二三区 I 国产成人片无码视频 I 国产 精品 自在自线 I av免费观看网站 I 日本精品久久久久中文字幕5 I 91看视频 I 看全色黄大色黄女片18 I 精品不卡一区 I 亚洲最新精品 I 欧美 激情 在线 I 人妻少妇精品久久 I 国产99视频精品免费专区 I 欧美影院 I 欧美精品在欧美一区二区少妇 I av大片网站 I 国产精品黄色片 I 888久久 I 狠狠干最新 I 看看黄色一级片 I 黄色精品久久 I 三级av在线 I 69色综合 I 国产日韩欧美91 I 亚洲精品偷拍 I 激情小说亚洲图片 I 久久国产视频精品 I 国产综合精品一区二区三区 I 色婷婷国产 I 最新成人av在线 I 国产私拍精品 I 日韩成人影音 I 日日夜夜天天综合

python2爬取百度貼吧指定關(guān)鍵字和圖片代碼實(shí)例

系統(tǒng) 1928 0

目的:在百度貼吧輸入關(guān)鍵字和要查找的起始結(jié)束頁,獲取帖子里面樓主所發(fā)的圖片

思路:

  • 獲取分頁里面的帖子鏈接列表
  • 獲取帖子里面樓主所發(fā)的圖片鏈接列表
  • 保存圖片到本地

注意事項(xiàng):

  • 問題:在谷歌瀏覽器使用xpath helper插件時(shí)有匹配結(jié)果,但在程序里面使用python內(nèi)帶的xpath匹配卻為空的原因。
  • 原因:不同服務(wù)器會對不同的瀏覽器返回不同的數(shù)據(jù),導(dǎo)致在谷歌瀏覽器看到的和服務(wù)器返回的有區(qū)別
  • 解決方法:使用IE瀏覽器的User-agenet,而且越老的版本,報(bào)錯(cuò)幾率相對越小
            
#!/usr/bin/env python
# -*- coding:utf-8 -*-
import urllib2
import urllib
import os
from lxml import etree
keyword = raw_input('請輸入要查詢的關(guān)鍵字: ')

keyword = {'kw':keyword}

kw = urllib.urlencode(keyword)

startpage = raw_input('請輸入開始頁數(shù): ')

endpage = raw_input('請輸入結(jié)束頁數(shù): ')

url = 'https://tieba.baidu.com/f' + '?' + kw

print('開始下載...')
# 計(jì)算下載的圖片個(gè)數(shù),注意:變量n如放在最外層循環(huán),可以統(tǒng)計(jì)每個(gè)分頁圖片個(gè)數(shù)
n = 0
# 獲取分頁里面帖子鏈接列表,獲取每個(gè)帖子里樓主所發(fā)的圖片鏈接列表,保存圖片
# 獲取帖子鏈接列表
for page in range(int(startpage),int(endpage)+1):
    pnumber = {'pn': str((page - 1)*50)}
    pnumber = urllib.urlencode(pnumber)
    fullurl = url + '&' + pnumber
    # 發(fā)現(xiàn)使用谷歌瀏覽器的User-Agent,會導(dǎo)致后面的xpath匹配結(jié)果有時(shí)為空。原因:服務(wù)器會對不同的瀏覽器發(fā)出的同一請求返回不同格式的數(shù)據(jù),此時(shí)返回的數(shù)據(jù)和在谷歌瀏覽器里面看到的數(shù)據(jù)不同。
    # 解決辦法:使用IE瀏覽器的User-Agent,因?yàn)镮E的相對來說更標(biāo)準(zhǔn),而且版本越老問題越少。
    headers = {"User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64; Trident/7.0; rv:11.0) like Gecko"}
    request = urllib2.Request(fullurl,headers=headers)
    response = urllib2.urlopen(request)
    html = response.read()

    # 解析html 為 HTML DOM文檔
    content = etree.HTML(html)
    # xpath使用下面括號內(nèi)容進(jìn)行匹配,使用a的屬性使用了class='j_th_tit'去過濾廣告則匹配結(jié)果為空;換成a的屬性rel="noreferrer"就解決。為啥換不清楚。思路,這個(gè)屬性不行換個(gè)屬性。
    # 獲取每個(gè)分頁里面的帖子的鏈接列表
    link_list = content.xpath('//div[@class="threadlist_lz clearfix"]/div/a[@rel="noreferrer"]/@href')
    # 獲取該帖子樓主所發(fā)的圖片鏈接列表
    for link in link_list:
      link = 'https://tieba.baidu.com' + link 
      request2 = urllib2.Request(link,headers=headers)
      response2 = urllib2.urlopen(request2)
      html2 = response2.read()

      # 把html字符串解析為html dom
      content2 = etree.HTML(html2)

      # 使用xpath匹配其里面層主所發(fā)的圖片的鏈接
      link_list2 = content2.xpath('//img[@class="BDE_Image"]/@src')

      # 遍歷圖片鏈接列表,保存圖片到文件夾images內(nèi)
      for link2 in link_list2:

        request3 = urllib2.Request(link2,headers=headers)
        response3 = urllib2.urlopen(request3)
        html3 = response3.read()
        # 指定文件名
        filename = link2[-10:]
        n += 1
        print('正在保存第 %3d 張圖片'%n)

        # html3為返回的圖片內(nèi)容,把圖片寫入images2文件夾內(nèi)
        with open('images' + '/' + filename,'wb') as f:
          f.write(html3)

print('下載結(jié)束!')
          

以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。


更多文章、技術(shù)交流、商務(wù)合作、聯(lián)系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯(lián)系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點(diǎn)擊下面給點(diǎn)支持吧,站長非常感激您!手機(jī)微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點(diǎn)擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦!!!

發(fā)表我的評論
最新評論 總共0條評論