亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術(shù)文章
文章詳情頁

Python用多進(jìn)程寫文件遇到編碼問題,而用多線程卻不會

瀏覽:87日期:2022-06-28 13:29:55

問題描述

用多進(jìn)程爬取數(shù)據(jù)寫入文件,運行沒有報錯,但是打開文件卻亂碼。Python用多進(jìn)程寫文件遇到編碼問題,而用多線程卻不會

Python用多進(jìn)程寫文件遇到編碼問題,而用多線程卻不會

用多線程改寫時卻沒有這個問題,一切正常。下面是數(shù)據(jù)寫入文件的代碼:

def Get_urls(start_page,end_page): print ’ run task {} ({})’.format(start_page,os.getpid()) url_text = codecs.open(’url.txt’,’a’,’utf-8’)for i in range(start_page,end_page+1): pageurl=baseurl1+str(i)+baseurl2+searchword response = requests.get(pageurl, headers=header) soup = BeautifulSoup(response.content, ’html.parser’) a_list=soup.find_all(’a’) for a in a_list:if a.text!=’’and ’wssd_content.jsp?bookid’in a[’href’]: text=a.text.strip() url=baseurl+str(a[’href’]) url_text.write(text+’t’+url+’n’)url_text.close()

多進(jìn)程用的進(jìn)程池

def Multiple_processes_test(): t1 = time.time() print ’parent process {} ’.format(os.getpid()) page_ranges_list = [(1,3),(4,6),(7,9)] pool = multiprocessing.Pool(processes=3) for page_range in page_ranges_list:pool.apply_async(func=Get_urls,args=(page_range[0],page_range[1])) pool.close() pool.join() t2 = time.time() print ’時間:’,t2-t1

問題解答

回答1:

圖片上已經(jīng)說了,文件以錯誤的編碼形式載入了,說明你多進(jìn)程寫入的時候,編碼不是utf-8

回答2:

文件第一行添加:

#coding: utf-8回答3:

打開同一個文件,相當(dāng)危險,出錯機率相當(dāng)大,多線程不出錯,極有可能是GIL,多進(jìn)程沒有鎖,因此容易出錯了。

url_text = codecs.open(’url.txt’,’a’,’utf-8’)

建議改為生產(chǎn)者消費都模式!

比如這樣

# -*- coding: utf-8 -* -import timeimport osimport codecsimport multiprocessingimport requestsfrom bs4 import BeautifulSoupbaseurl = ’’baseurl1 = ’’baseurl2 = ’’pageurl = ’’searchword = ’’header = {}def fake(url, **kwargs): class Response(object):pass o = Response() o.content = ’<a href='http://www.aoyou183.cn/{}/wssd_content.jsp?bookid'>foo</a>’.format(url) return orequests.get = fakedef Get_urls(start_page, end_page, queue): print(’run task {} ({})’.format(start_page, os.getpid())) try:for i in range(start_page, end_page + 1): pageurl = baseurl1 + str(i) + baseurl2 + searchword response = requests.get(pageurl, headers=header) soup = BeautifulSoup(response.content, ’html.parser’) a_list = soup.find_all(’a’) for a in a_list:if a.text != ’’and ’wssd_content.jsp?bookid’in a[’href’]: text = a.text.strip() url = baseurl + str(a[’href’]) queue.put(text + ’t’ + url + ’n’) except Exception as e:import tracebacktraceback.print_exc()def write_file(queue): print('start write file') url_text = codecs.open(’url.txt’, ’a’, ’utf-8’) while True:line = queue.get()if line is None: breakprint('write {}'.format(line))url_text.write(line) url_text.close()def Multiple_processes_test(): t1 = time.time() manager = multiprocessing.Manager() queue = manager.Queue() print ’parent process {} ’.format(os.getpid()) page_ranges_list = [(1, 3), (4, 6), (7, 9)] consumer = multiprocessing.Process(target=write_file, args=(queue,)) consumer.start() pool = multiprocessing.Pool(processes=3) results = [] for page_range in page_ranges_list:result = pool.apply_async(func=Get_urls, args=(page_range[0], page_range[1], queue ))results.append(result) pool.close() pool.join() queue.put(None) consumer.join() t2 = time.time() print ’時間:’, t2 - t1if __name__ == ’__main__’: Multiple_processes_test()結(jié)果

foo /4/wssd_content.jsp?bookidfoo /5/wssd_content.jsp?bookidfoo /6/wssd_content.jsp?bookidfoo /1/wssd_content.jsp?bookidfoo /2/wssd_content.jsp?bookidfoo /3/wssd_content.jsp?bookidfoo /7/wssd_content.jsp?bookidfoo /8/wssd_content.jsp?bookidfoo /9/wssd_content.jsp?bookid

標(biāo)簽: Python 編程
主站蜘蛛池模板: 一二级黄色片 | 精品视频一区二区三区 | 久久国产香蕉视频 | 久久第一页| 国产成人精品曰本亚洲78 | 日韩国产毛片 | 亚洲人成人网毛片在线播放 | 国产亚洲精品美女久久久 | 精品视频自拍 | 亚洲欧美日韩高清中文在线 | 911精品国产亚洲日本美国韩国 | 99je全部都是精品视频在线 | 91久久精品一区二区三区 | 久久99亚洲综合精品首页 | 97国产精品欧美一区二区三区 | a级成人毛片久久 | 欧美亚洲国产成人高清在线 | 黄色片视频免费 | 欧美日韩在线一区 | avav国产 | 国产成人亚洲精品蜜芽影院 | 麻豆视传媒短视频网站链接 | 欧美黑人特大巨黑吊 | 三上悠亚先锋影音xfplay | 亚洲福利午夜 | aaa欧美| 被公侵犯肉体中文字幕一区二区 | 久久视频在线免费观看 | 国产精品高清视亚洲一区二区 | 国模福利视频在线播放 | 在线观看精品自拍视频 | 91视频视频 | 97dyy在线观看手机版 | 国产欧美精品午夜在线播放 | 国产精品视频分类 | 毛片大全免费观看 | 亚洲图欧美日韩色综合图 | 亚洲成人av| 国产一区二区亚洲精品 | 色播99| 久久久久琪琪精品色 |