黄色网页视频 I 影音先锋日日狠狠久久 I 秋霞午夜毛片 I 秋霞一二三区 I 国产成人片无码视频 I 国产 精品 自在自线 I av免费观看网站 I 日本精品久久久久中文字幕5 I 91看视频 I 看全色黄大色黄女片18 I 精品不卡一区 I 亚洲最新精品 I 欧美 激情 在线 I 人妻少妇精品久久 I 国产99视频精品免费专区 I 欧美影院 I 欧美精品在欧美一区二区少妇 I av大片网站 I 国产精品黄色片 I 888久久 I 狠狠干最新 I 看看黄色一级片 I 黄色精品久久 I 三级av在线 I 69色综合 I 国产日韩欧美91 I 亚洲精品偷拍 I 激情小说亚洲图片 I 久久国产视频精品 I 国产综合精品一区二区三区 I 色婷婷国产 I 最新成人av在线 I 国产私拍精品 I 日韩成人影音 I 日日夜夜天天综合

python爬取盤搜的有效鏈接實現代碼

系統 1925 0

因為盤搜搜索出來的鏈接有很多已經失效了,影響找數據的效率,因此想到了用爬蟲來過濾出有效的鏈接,順便練練手~

這是本次爬取的目標網址http://www.pansou.com,首先先搜索個python,之后打開開發者工具,

可以發現這個鏈接下的json數據就是我們要爬取的數據了,把多余的參數去掉,

剩下的鏈接格式為http://106.15.195.249:8011/search_new?q=python&p=1,q為搜索內容,p為頁碼

python爬取盤搜的有效鏈接實現代碼_第1張圖片

以下是代碼實現:

            
import requests
import json
from multiprocessing.dummy import Pool as ThreadPool
from multiprocessing import Queue
import sys
headers = {
  "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36"
}
q1 = Queue()
q2 = Queue()
urls = [] # 存取url列表
# 讀取url
def get_urls(query):
  # 遍歷50頁
  for i in range(1,51):
    # 要爬取的url列表,返回值是json數據,q參數是搜索內容,p參數是頁碼
    url = "http://106.15.195.249:8011/search_new?&q=%s&p=%d" % (query,i)
    urls.append(url)
# 獲取數據
def get_data(url):
  print("開始加載,請等待...")
  # 獲取json數據并把json數據轉換為字典
  resp = requests.get(url, headers=headers).content.decode("utf-8")
  resp = json.loads(resp)
  # 如果搜素數據為空就拋出異常停止程序
  if resp['list']['data'] == []:
    raise Exception
  # 遍歷每一頁數據的長度
  for num in range(len(resp['list']['data'])):
    # 獲取百度云鏈接
    link = resp['list']['data'][num]['link']
    # 獲取標題
    title = resp['list']['data'][num]['title']
    # 訪問百度云鏈接,判斷如果頁面源代碼中有“失效時間:”這段話的話就表明鏈接有效,鏈接無效的頁面是沒有這段話的
    link_content = requests.get(link, headers=headers).content.decode("utf-8")
    if "失效時間:" in link_content:
      # 把標題放進隊列1
      q1.put(title)
      # 把鏈接放進隊列2
      q2.put(link)
      # 寫入csv文件
      with open("wangpanziyuan.csv", "a+", encoding="utf-8") as file:
        file.write(q1.get()+","+q2.get() + "\n")
  print("ok")
if __name__ == '__main__':
  # 括號內填寫搜索內容
  get_urls("python")
  # 創建線程池
  pool = ThreadPool(3)
  try:
    results = pool.map(get_data, urls)
  except Exception as e:
    print(e)
  pool.close()
  pool.join()
  print("退出")
          

總結

以上所述是小編給大家介紹的python爬取盤搜的有效鏈接實現代碼希望對大家有所幫助,如果大家有任何疑問請給我留言,小編會及時回復大家的。在此也非常感謝大家對腳本之家網站的支持!
如果你覺得本文對你有幫助,歡迎轉載,煩請注明出處,謝謝!


更多文章、技術交流、商務合作、聯系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦!!!

發表我的評論
最新評論 總共0條評論