黄色网页视频 I 影音先锋日日狠狠久久 I 秋霞午夜毛片 I 秋霞一二三区 I 国产成人片无码视频 I 国产 精品 自在自线 I av免费观看网站 I 日本精品久久久久中文字幕5 I 91看视频 I 看全色黄大色黄女片18 I 精品不卡一区 I 亚洲最新精品 I 欧美 激情 在线 I 人妻少妇精品久久 I 国产99视频精品免费专区 I 欧美影院 I 欧美精品在欧美一区二区少妇 I av大片网站 I 国产精品黄色片 I 888久久 I 狠狠干最新 I 看看黄色一级片 I 黄色精品久久 I 三级av在线 I 69色综合 I 国产日韩欧美91 I 亚洲精品偷拍 I 激情小说亚洲图片 I 久久国产视频精品 I 国产综合精品一区二区三区 I 色婷婷国产 I 最新成人av在线 I 国产私拍精品 I 日韩成人影音 I 日日夜夜天天综合

python網(wǎng)絡(luò)爬蟲學習筆記之一 爬蟲基礎(chǔ)入門

系統(tǒng) 2011 0

爬蟲工作的三個基本步驟: 爬取網(wǎng)頁、解析內(nèi)容、存儲數(shù)據(jù)

準備

先安裝爬取網(wǎng)頁需要用到的第三方庫:?requests 和 bs4

pip install requests

pip install bs4

爬取網(wǎng)頁

            
              # coding: UTF-8
import requests

link = "http://www.santostang.com/"
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36'}
r = requests.get(link, headers=headers)
print(r.text)
            
          

程序運行后輸出 網(wǎng)頁的html代碼

解析網(wǎng)頁內(nèi)容

            
              # coding: UTF-8
import requests
from bs4 import BeautifulSoup

link = "http://www.santostang.com/"
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36'}
r = requests.get(link, headers=headers)

soup = BeautifulSoup(r.text, "lxml")
title = soup.find("h1", class_="post-title").a.text.strip()
print(title)
            
          

獲取到了網(wǎng)頁第一篇文章的 title,輸出內(nèi)容為:

第四章 – 4.3 通過selenium 模擬瀏覽器抓取

存儲數(shù)據(jù)

            
              # coding: UTF-8
import requests
from bs4 import BeautifulSoup

link = "http://www.santostang.com/"
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36'}
r = requests.get(link, headers=headers)

soup = BeautifulSoup(r.text, "lxml")
title = soup.find("h1", class_="post-title").a.text.strip()

with open('d:/title.txt', 'w') as f:
	f.write(title)
            
          

運行程序后找到d:/title.txt 文件,發(fā)現(xiàn)文件的內(nèi)容就是網(wǎng)頁第一篇文章的title,即 “第四章 – 4.3 通過selenium 模擬瀏覽器抓取”

至此,講解完了python爬蟲的三個基本步驟和代碼實現(xiàn)

本文內(nèi)容到此結(jié)束,更多內(nèi)容可關(guān)注公眾號和個人微信號:

python網(wǎng)絡(luò)爬蟲學習筆記之一 爬蟲基礎(chǔ)入門_第1張圖片 python網(wǎng)絡(luò)爬蟲學習筆記之一 爬蟲基礎(chǔ)入門_第2張圖片


更多文章、技術(shù)交流、商務合作、聯(lián)系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯(lián)系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦!!!

發(fā)表我的評論
最新評論 總共0條評論