淘寶的頁面很復雜,如果使用分析ajax或者js的方式,很麻煩
抓取淘寶‘美食'上面的所有食品信息
spider.py
#encoding:utf8
import re
from selenium import webdriver
from selenium.common.exceptions import TimeoutException
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from bs4 import BeautifulSoup
from config import *
import pymongo
client=pymongo.MongoClient(MONGODB_URL)
db=client[MONGODB_DB]
##這里使用PhantomJS,并配置了一些參數
browser=webdriver.PhantomJS(service_args=SERVICE_ArGS)
##窗口的大小,不設置的話,默認太小,會有問題
browser.set_window_size(1400,900)
wait=WebDriverWait(browser, 10)
def search():
print('正在搜索')
##容易出現超時的錯誤
try:
##等待這兩個模塊都加載好
browser.get("https://www.taobao.com")
input = wait.until(
EC.presence_of_element_located((By.CSS_SELECTOR, '#q'))
)
submit=wait.until(
EC.element_to_be_clickable((By.CSS_SELECTOR, '#J_TSearchForm > div.search-button > button'))
)
######這塊python2搞得鬼
#input.send_keys('\u7f8e\u98df'.decode("unicode-escape"))
input.send_keys(KEYWORD.decode("unicode-escape"))
submit.click()
total = wait.until(
EC.presence_of_element_located((By.CSS_SELECTOR, '#mainsrp-pager > div > div > div > div.total'))
)
get_product()
return total.text
except TimeoutException:
return search()
def next_page(page_number):
print('翻頁'+str(page_number))
try:
input = wait.until(
EC.presence_of_element_located((By.CSS_SELECTOR, '#mainsrp-pager > div > div > div > div.form > input'))
)
submit=wait.until(
EC.element_to_be_clickable((By.CSS_SELECTOR, '#mainsrp-pager > div > div > div > div.form > span.btn.J_Submit'))
)
input.clear()
input.send_keys(page_number)
submit.click()
##判斷是否翻頁成功 高亮的是不是輸入的值,直接加在后面即可
wait.until(EC.text_to_be_present_in_element((By.CSS_SELECTOR,'#mainsrp-pager > div > div > div > ul > li.item.active > span'),str(page_number)))
get_product()
except TimeoutException:
return next_page(page_number)
#獲取產品信息
def get_product():
products = wait.until(
EC.presence_of_element_located((By.CSS_SELECTOR, '#mainsrp-itemlist .m-itemlist .items'))
)
##拿到網頁
html = browser.page_source
soup = BeautifulSoup(html,'lxml')
items = soup.select('#mainsrp-itemlist .m-itemlist .items .item.J_MouserOnverReq')#
print('*************************到此*************')
for item in items:
img = item.select('.J_ItemPic.img')[0].get('src')
price = item.select('.price.g_price.g_price-highlight > strong')[0].get_text()
deal = item.select('.deal-cnt')[0].get_text()
title= item.select('.row.row-2.title > a ')[0].get_text().strip() #:nth-of-type(3)
shop = item.select('.row.row-3.g-clearfix > .shop > a > span:nth-of-type(2)')[0].get_text()
location = item.select('.location')[0].get_text()
product={
'img':img,
'price':price,
'deal':deal,
'title':title,
'shop':shop,
'location':location
}
#打印一下
import json
j = json.dumps(product)
dict2 = j.decode("unicode-escape")
print dict2
save_to_mongo(product)
def save_to_mongo(product):
try:
if db[MONGODB_TABLE].insert(product):
print('存儲到mongodb成功'+str(product))
except Exception:
print("存儲到mongodb失敗"+str(product))
def main():
try:
total=search()
##搜尋 re正則表達式
s=re.compile('(\d+)')
total=int(s.search(total).group(1))
for i in range(2,total+1):
next_page(i)
except Exception:
print('出錯')
finally:
browser.close()
if __name__ == '__main__':
main()
config.py
MONGODB_URL='localhost'
MONGODB_DB='taobao'
MONGODB_TABLE='meishi'
SERVICE_ArGS=['--load-images=false','--disk-cache=true']
##就是美食這兩個字,直接用漢字會報錯
KEYWORD='\u7f8e\u98df'
以上這篇Python使用Selenium爬取淘寶異步加載的數據方法就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持腳本之家。
更多文章、技術交流、商務合作、聯系博主
微信掃碼或搜索:z360901061
微信掃一掃加我為好友
QQ號聯系: 360901061
您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。
【本文對您有幫助就好】元

