黄色网页视频 I 影音先锋日日狠狠久久 I 秋霞午夜毛片 I 秋霞一二三区 I 国产成人片无码视频 I 国产 精品 自在自线 I av免费观看网站 I 日本精品久久久久中文字幕5 I 91看视频 I 看全色黄大色黄女片18 I 精品不卡一区 I 亚洲最新精品 I 欧美 激情 在线 I 人妻少妇精品久久 I 国产99视频精品免费专区 I 欧美影院 I 欧美精品在欧美一区二区少妇 I av大片网站 I 国产精品黄色片 I 888久久 I 狠狠干最新 I 看看黄色一级片 I 黄色精品久久 I 三级av在线 I 69色综合 I 国产日韩欧美91 I 亚洲精品偷拍 I 激情小说亚洲图片 I 久久国产视频精品 I 国产综合精品一区二区三区 I 色婷婷国产 I 最新成人av在线 I 国产私拍精品 I 日韩成人影音 I 日日夜夜天天综合

python獲取txt文件詞向量過程詳解

系統(tǒng) 2014 0

在讀取https://github.com/Embedding/Chinese-Word-Vectors中的中文詞向量時,選擇了一個有3G多的txt文件,之前在做詞向量時用的是word2vec,所以直接導(dǎo)入模型然后indexword即可。

因為這是一個txt大文件,嘗試了DataFrame,np.loadtxt等,都沒有成功,其中主要遇到的問題是:

  • 如何讀取完整的大文件,而不會出現(xiàn)內(nèi)存不足memery error等問題
  • 將讀取出來的文件,保存為npy文件
  • 根據(jù)詞找到對應(yīng)的向量

解決辦法

嘗試使用的代碼:

            
代碼1:
try:
lines=np.loadtxt(filepath)
catch:
感覺這塊不會寫了咦,,,
  print(ValueError)
但這樣的話,它就不會繼續(xù)循環(huán)去讀上邊的txt了呢
          
            
代碼2:
lines=[]
with open(filepath) as f:
  for line in f:
    lines.append(line)
np.save(filepath,lines)
          
            
代碼3
 
def readEmbedFile(embedFile):
#   embedId = {}
#   input = open(embedFile,'r',encoding="utf-8")
#   lines = []
#   a=0
#   for line in input:
#     lines.append(line)
#     a=a+1
#     print(a)
#   nwords = len(lines) - 1
#   splits = lines[1].strip().split(' ') # 因為第一行是統(tǒng)計信息,所以用第二行
#   dim = len(splits) - 1
#   embeddings=[]
#   # embeddings = [[0 for col in range(dim)] for row in range(nwords)]
#   b=0
#   for lineId in range(len(lines)):
#     b=b+1
#     print(b)
#     splits = lines[lineId].split(' ')
#     if len(splits) > 2:
#       # embedId賦值
#       embedId[splits[0]] = lineId
#       # embeddings賦值
#       emb = [float(splits[i]) for i in range(1, 300)]
#       embeddings.append(emb)
#   return embedId, embeddings
          
            
代碼4:
def load_txt(filename):
  lines=[]
  vec_dict={}
  with open(filename,r) as f:
    for line in f:
    list=line.strip()
    lines.append(line)
  for i, line in emuate(lines):
    if i=0:
      continue
    line=line.split(" ")
    wordID=line[0]
    wordvec=[float line[i] for i in range(1,300)]
  vec_dict[wordId]=np.array(wordvec)  
 
  return vec_dict
          

具體內(nèi)存不足主要的原因是:

我的虛擬機中確實內(nèi)存不太夠,后來使用實驗室32G的主機后,可以得到idvec,而得不到向量的,報的錯還是memory error.
另一個原因,是需要把詞向量轉(zhuǎn)換為float形式,在python中str 占的內(nèi)存>float類型,如代碼所示:

            
print("str",sys.getsizeof(""))
print("float",sys.getsizeof(1.1))
print("int",sys.getsizeof(1))
print("list",sys.getsizeof([]))
print("tuple",sys.getsizeof(()))
print("dic",sys.getsizeof([]))
          
            
str 49
float 24
int 28
list 64
tuple 48
dic 64
          

在我的電腦,64位操作系統(tǒng),64位的python, 所占內(nèi)存大小排序為:

dic=list>str>tuple>int>float

讀取時候可以用np.load().item就可以復(fù)原原來的字典,主要參照下述文件:

然后通過python的字典操作就可以遍歷得到每個詞的詞向量了,dic[vocab]

心得

距離完全解決項目的問題還有5~6的大關(guān)卡,但靜下心來,一步步地做總會突破的呀!

以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。


更多文章、技術(shù)交流、商務(wù)合作、聯(lián)系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯(lián)系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦!!!

發(fā)表我的評論
最新評論 總共0條評論