黄色网页视频 I 影音先锋日日狠狠久久 I 秋霞午夜毛片 I 秋霞一二三区 I 国产成人片无码视频 I 国产 精品 自在自线 I av免费观看网站 I 日本精品久久久久中文字幕5 I 91看视频 I 看全色黄大色黄女片18 I 精品不卡一区 I 亚洲最新精品 I 欧美 激情 在线 I 人妻少妇精品久久 I 国产99视频精品免费专区 I 欧美影院 I 欧美精品在欧美一区二区少妇 I av大片网站 I 国产精品黄色片 I 888久久 I 狠狠干最新 I 看看黄色一级片 I 黄色精品久久 I 三级av在线 I 69色综合 I 国产日韩欧美91 I 亚洲精品偷拍 I 激情小说亚洲图片 I 久久国产视频精品 I 国产综合精品一区二区三区 I 色婷婷国产 I 最新成人av在线 I 国产私拍精品 I 日韩成人影音 I 日日夜夜天天综合

python爬蟲入門(一)

系統 1901 0

1.Request庫

Request庫有七個基本方法:

python爬蟲入門(一)_第1張圖片

首先以requests庫的request方法進行講解:

python爬蟲入門(一)_第2張圖片

其次,以其中典型的get方法進行說明:

1.

            
              r=requests.get(url)
            
          

首先get構造一個向服務器請求資源的 Request對象 ,r是一個返回的一個包括服務器資的 Response對象

python爬蟲入門(一)_第3張圖片

2.

            
              r=requests.get(url,params=None,**kwargs)
            
          

params:url中的額外參數,字典或者字節流格式...可以修改url內容

python爬蟲入門(一)_第4張圖片

**kwargs是12個可以控制的參數:

python爬蟲入門(一)_第5張圖片

python爬蟲入門(一)_第6張圖片

特別指出,headers是一個字典,可以修改http頭,比如有些網站禁止爬蟲使用,我們可以修改user-agent:

            
              hd = {'user‐agent': 'Chrome/10'}
r = requests.request('POST', 'http://python123.io/ws', headers=hd)
            
          

其余6中與get類似。

最后,是Request的標準模板:

            
              try:
		r=requests.get(url)
		r.raise_for_status
		r.encoding=r.apparent_encoding
		return r.text
	except:
		return  ""
            
          

2.Beautiful Soup庫

Beautiful Soup庫是解析、遍歷、維護“標簽樹”的功能庫。

python爬蟲入門(一)_第7張圖片

1.首先,三種遍歷方式:下行遍歷、上行遍歷,平行遍歷。

python爬蟲入門(一)_第8張圖片

python爬蟲入門(一)_第9張圖片

python爬蟲入門(一)_第10張圖片

python爬蟲入門(一)_第11張圖片

(平行遍歷發生在同一個父節點下的各節點間。)(復數的都是迭代變量,用在for循環中)

使用方法:

            
              from bs4 import BeautifulSoup
import bs4
soup=BeautifulSoup(html,"html.parser")#soup則為返回的html內容
soup.prettify()#為html文本增加‘\n’使得看起來更好看一些
            
          

find方法:

            
              soup.find_all(name, attrs, recursive, string, **kwargs)
            
          

python爬蟲入門(一)_第12張圖片

python爬蟲入門(一)_第13張圖片

3.正則表達式(RE)

python爬蟲入門(一)_第14張圖片

python爬蟲入門(一)_第15張圖片

正則表達式的表示類型是raw string:表示為r'text'。raw string是不包括對轉義符再次轉義的字符串。就是使用\d的時候,\不需要寫成\\表示轉義。

python爬蟲入門(一)_第16張圖片

?

python爬蟲入門(一)_第17張圖片

?

?

python爬蟲入門(一)_第18張圖片

python爬蟲入門(一)_第19張圖片

python爬蟲入門(一)_第20張圖片

python爬蟲入門(一)_第21張圖片

python爬蟲入門(一)_第22張圖片

python爬蟲入門(一)_第23張圖片

Re庫默認貪婪匹配,即輸出匹配最長的子串。但是存在多種匹配,都可以在操作符后面加?變成最小匹配。

python爬蟲入門(一)_第24張圖片

?


更多文章、技術交流、商務合作、聯系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦!!!

發表我的評論
最新評論 總共0條評論