黄色网页视频 I 影音先锋日日狠狠久久 I 秋霞午夜毛片 I 秋霞一二三区 I 国产成人片无码视频 I 国产 精品 自在自线 I av免费观看网站 I 日本精品久久久久中文字幕5 I 91看视频 I 看全色黄大色黄女片18 I 精品不卡一区 I 亚洲最新精品 I 欧美 激情 在线 I 人妻少妇精品久久 I 国产99视频精品免费专区 I 欧美影院 I 欧美精品在欧美一区二区少妇 I av大片网站 I 国产精品黄色片 I 888久久 I 狠狠干最新 I 看看黄色一级片 I 黄色精品久久 I 三级av在线 I 69色综合 I 国产日韩欧美91 I 亚洲精品偷拍 I 激情小说亚洲图片 I 久久国产视频精品 I 国产综合精品一区二区三区 I 色婷婷国产 I 最新成人av在线 I 国产私拍精品 I 日韩成人影音 I 日日夜夜天天综合

Python爬蟲之xlml解析庫(全面了解)

系統(tǒng) 2032 0

1.Xpath

Xpath是一門在XML中查找信息的語言,可用來在XML文檔中對元素和屬性進行遍歷。XQuery和xpoint都是構(gòu)建于xpath表達之上

2.節(jié)點

父(parent),子(children),兄弟(sibling),先輩(ancetstor),后代(Decendant)

3.選取節(jié)點

路徑表達式

表達式 描述 路徑表達式 結(jié)果
nodename 選取此節(jié)點上的所有的子節(jié)點 bookstore 選取bookstore元素的所有子節(jié)點
/ 從根節(jié)點上選取 /bookstore 選取根元素bookstore,為絕對路徑
// 從匹配選擇的當(dāng)前節(jié)點選擇文檔中的節(jié)點,不考慮位置 //book 選取所有的book子元素,而不管他們在文檔的位置
. 選取當(dāng)前節(jié)點 bookstore//book 選擇bookstore后代中所有的book元素
.. 選取當(dāng)前節(jié)點的父節(jié)點
@ 選取屬性 //@lang 選取名為lang的所有屬性

謂語

  謂語用來 查找 某個特定的節(jié)點或者 包含某個指定的值 的節(jié)點

謂語被嵌在方括號中

路徑表達式 結(jié)果
/bookstore/book[1] 選取屬于bookstore子元素的第一個book元素
/bookstore/book[last()] 選取屬于bookstore子元素的最后book元素
/bookstore/book[last()-1] 選取屬于bookstore子元素的倒數(shù)第二個book元素
/bookstore/book[position()<3] 選取最前面的兩個屬于bookstore元素的子元素的book元素
//title[@lang='eng'] 選取所有的title元素,并且這些元素?fù)碛兄禐閑ng的lang屬性
/bookstore/book[price>35.0] 選取bookstore元素的所有book元素,且其中的price值大于35.0

選取未知節(jié)點(通配符)

*  匹配任何 元素節(jié)點

@*  匹配任何屬性節(jié)點

node()  匹配任何類型的節(jié)點

4.lxml用法

            
#!/usr/bin/python
#_*_coding:utf-8_*_

from lxml import etree

text='''

            
            
  '''

# html=etree.HTML(text) #html對象,存儲在地址中,有自動修正功能
# result=etree.tostring(html) #將html對象轉(zhuǎn)化為字符串

html=etree.parse('hello.html')
# result=etree.tostring(html,pretty_print=True)
# print result
print type(html)
result= html.xpath('//li')
print result
print len(result)
print type(result)
print type(result[0])
print html.xpath('//li/@class') # 獲取li標(biāo)簽下的所有的class
print html.xpath('//li/a[@href="link1.html" rel="external nofollow" rel="external nofollow" ]') #獲取li標(biāo)簽下href為link1的
            
              標(biāo)簽
print html.xpath('//li//span') #獲取li標(biāo)簽下所有的span標(biāo)簽
print html.xpath('//li[last()-1]/a')[0].text #獲取倒數(shù)第二個元素的內(nèi)容
            
          

以上這篇Python爬蟲之xlml解析庫(全面了解)就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持腳本之家。


更多文章、技術(shù)交流、商務(wù)合作、聯(lián)系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯(lián)系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦!!!

發(fā)表我的評論
最新評論 總共0條評論