如何利用python批量提取txt文本中所需文本并寫入excel

目錄

1.提取txt文本

我想要得文本

我想要得文本是如圖所示,寶可夢得外貌描述文本,由于原本得數據源結構并不是很穩定,而且也不是表格形式,因此在csdn上查了半天。

最原始得一行一行提取(不建議,未采用)

fi = open("D:python_learningdatadataAxew.txt","r",encoding="utf-8")wflag =False                #寫標記newline = []                #創建一個新得列表for line in fi :            #按行讀入文件,此時line得type是str    if "=" in line:        #重置寫標記        wflag =False    if "原型剖析" in line:     #檢驗是否到了要寫入得內容        wflag = True        continue    if wflag == True:        K = list(line)        if len(K)>1:           #去除文本中得空行            for i in K :       #寫入需要內容                newline.append(i)strlist = "".join(newline)      #合并列表元素newlines = str(strlist)         #list轉化成strprint(newlines)"""for D in range(1,100):                       #刪掉句中()    newlines = newlines.replace("({})".format(D),"")for P in range(0,9):                               #刪掉前面數值標題    for O in  range(0,9):        for U in range(0, 9):           newlines = newlines.replace("{}.{}{}".format(P,O,U), "")fo.write(newlines)fo.close()fi.close()"""

源代碼為:將提取出得txt文本儲存到另外一個txt中,跟我得需求不符合,因此注釋掉了

正則表達式提取

由于txt文件打開后不是數據格式,因此先轉為列表形式(一行是一個元素);再將列表元素合到一起,轉為一個元素。
re.compile函數可以創建正則函數

pattern= re.compile(r’=棲息地=n(.*?)n==’, flags=re.DOTALL)

flags=re.DOTALL 這樣找尋文本時可以跨行;

’=棲息地=n(.*?)n==’ 正則表達式表示只要小括號里面得以‘=棲息地=n’開頭,‘n==’結尾得所有文本

pattern.findall函數可以在文本中找到符合正則函數得文本,但是莫名其妙會重復好多次,這個問題應該是我哪里寫錯了,但是因為實在沒空糾結這個,所以直接用result=pattern.findall(f2)[0]來提取第一個。

path='D:\python_learning\data\data\'+df.iloc[0,3]+'.txt'#為循環做準備import ref1=list(open(path,"r",encoding="utf-8"))#列表格式f2="".join(f1)#合并列表元素#print(type(f3))pattern= re.compile(r'===棲息地===n(.*?)n==', flags=re.DOTALL)#在所有行里找以‘===棲息地===n'開頭,‘n=='結尾得所有文本if len(pattern.findall(f2))==0:#有可能找不到,以防報錯    result='none'else:        result=pattern.findall(f2)[0]print(result)

2.增加數據框得列

由于我需要在已有數據集上增加上面提取到得文本數據,因此我準備先把csv數據放到Python里變成數據框,再把數據框里擴列,再改內容,再寫入新得csv。

參考了代碼,這個比較亂,只看第一個import下面就行,我單純就是留個記錄:

#數據框增加列得參考import pandas as pddf = pd.DataFrame(columns = list('abcd'),data = [[6,7,8,9],[10,11,12,13]])#在b列前面增加一個m列col_name = list(df.columns)col_name.insert(1,'m')df.reindex(columns = col_name,fill_value = 12)#在b列前一次性增加三列h,n,gcol_name = col_name[0:2]+list('hng')+col_name[2:]df.reindex(columns = col_name,fill_value = 10)import pandas as pddf = pd.DataFrame(columns =word,data = [['Bulbasaur',7,8,9],[10,11,12,13]])print(df)col_name = list(df.columns)#列名print(col_name )#在b列前面增加一個m列col_name.insert(1,'m')print(col_name)df=df.reindex(columns =['name','概述', '外貌', '棲息地', '原型剖析'],fill_value = 12)print(df)

3.引入基礎csv數據,并擴列

是之后循環和寫入得基礎

import pandas as pddata_name = pd.read_csv(r'D:python_learningdatabasedata.csv')#print(data_name)word=['概述','外貌','棲息地','原型剖析']col_name = list(data_name.columns)#列名col_name = col_name +word#添加新得列名#print(col_name )df=data_name.reindex(columns = col_name,fill_value =' ')#在數據框中增加四列,填充空格print(df)#print(df.iloc[2,2])

我得數據是這樣得:

匯總

把上面得放在一起,并且把需要循環得模塊寫成函數:

# #  引入包# In[ ]:import reimport pandas as pd# # 引入基礎數據# In[135]:data_name = pd.read_csv(r'D:python_learningdatabasedata.csv')#print(data_name)word=['概述','外貌','棲息地','原型剖析']col_name = list(data_name.columns)#列名col_name = col_name +word#添加新得列名#print(col_name )df=data_name.reindex(columns = col_name,fill_value =' ')#在數據框中增加四列,填充空格#print(df)#print(df.iloc[2,2])# # 引入函數# In[ ]:#去除空行函數def deletespace(path1,path2):    with open(path1,'r',encoding = 'utf-8') as fr,open(path2,'w',encoding = 'utf-8') as fd:            for text in fr.readlines():                    if text.split():                            fd.write(text)            print('輸出成功....')    fr.close()    fd.close()# In[143]:#正則找文本def find(path,conversion):    f1=list(open(path,"r",encoding="utf-8"))#列表格式    f2="".join(f1)#合并列表元素    #print(type(f3))    pattern= re.compile(conversion, flags=re.DOTALL)#在所有行里找以‘===棲息地===n'開頭,‘n=='結尾得所有文本    if len(pattern.findall(f2))==0:#有可能找不到,以防報錯        result='none'    else:            result=pattern.findall(f2)[0]    return result# # 起始準備 把所有空行消除,不需要運行第二遍# In[ ]:data_name = pd.read_csv(r'D:python_learningdatabasedata.csv')for word in df.iloc[:,3]:    path1='D:\python_learning\data\data\'+word+'.txt'#爬蟲獲取得數據    path2='D:\python_learning\data\description\'+word+'.txt'    deletespace(path1,path2)# # 開始循環# In[ ]:word=['概述','外貌','棲息地','原型剖析']#根據文本中情況進行正則conversion=['==概述==n(.*?)==','===外貌===n(.*?)==','===棲息地===n(.*?)==','==原型剖析==n(.*?)==']#正則文本word1=col_name[7]print(word1)newlines=seek(path,word1)print(newlines)# In[145]:print(len(df))print(len(list(df.columns)))# In[150]:for i in range(len(df)):    for j in range(6,len(list(df.columns))):        path='D:\python_learning\data\description\'+df.iloc[i,3]+'.txt'        k=j-6        cword=conversion[k]        result=find(path,cword)        df.iloc[i,j]=result# In[152]:df.to_csv('df.csv',encoding ='utf_8_sig')#輸出中文必須用這個utf_8_sig  編碼才是中文print("已輸出文檔")#出現問題,很多匹配不到,發現是原始文本得原因

總之我文本描述得準備是差不多了。

總結 

到此這篇關于如何利用python批量提取txt文本中所需文本并寫入excel得內容就介紹到這了,更多相關python批量提取txt文本寫入excel內容請搜索之家以前得內容或繼續瀏覽下面得相關內容希望大家以后多多支持之家!

聲明:所有內容來自互聯網搜索結果,不保證100%準確性,僅供參考。如若本站內容侵犯了原著者的合法權益,可聯系我們進行處理。
發表評論
更多 網友評論1 條評論)
暫無評論

返回頂部

主站蜘蛛池模板: 黄页网站在线播放| 中文字幕日本最新乱码视频| 1024手机看片基地| 毛片在线播放a| 在线视频免费观看www动漫| 免费欧美黄色网址| www.成人av.com| 疯狂做受xxxx高潮欧美日本| 好吊色永久免费视频大全 | 人人玩人人添人人| gdianav| 男人扒开添女人下部免费视频| 女女同恋のレズビアン漫画| 免费一级欧美大片在线观看| ntr出差上司灌醉女职员电影| 男女午夜性爽快免费视频不卡| 夫妇交换3中文字幕| 亚洲视频在线看| 91香焦国产线观看看免费| 炕上摸着老妇雪白肥臀| 国产老师的丝袜在线看| 亚洲国产午夜精品理论片| 亚洲图片欧美另类| 日韩久久无码免费毛片软件| 国产交换俱乐部在线看| 久久久噜噜噜久久熟女AA片| 美女让男人捅爽| 好硬好湿好大再深一点动态图| 亚洲视频一区网站| 5g探花多人运动罗志祥网址| 欧美人xxxx| 国产午夜视频在线观看| 中文字幕在线不卡精品视频99| 精品人人妻人人澡人人爽牛牛| 在线观看永久免费| 亚洲人成伊人成综合网久久久| 麻豆传播媒体app大全免费版官网| 日产精品一致六区搬运| 免费高清在线观看a网站| 99re热久久这里只有精品6| 欧美xxxxx高潮喷水|