這篇文章主要介紹了Python BeautifulSoup中文亂碼問題的2種解決方法,需要的朋友可以參考下
解決方法一: 使用python的BeautifulSoup來抓取網頁然后輸出網頁標題,但是輸出的總是亂碼,找了好久找到解決辦法,下面分享給大家 首先是代碼 復制代碼 代碼如下:
在剛開始測試的時候發現,雖然輸出是亂碼的,但是寫在文件里面卻是正常的.然后在網上找了找解決辦法才發現 print一個對象的邏輯:內部是調用對象的__str__得到對應的字符串的,此處對應的是soup的__str__ 而針對於soup本身,其實已經是Unicode編碼,所以可以通過指定__str__輸出時的編碼為GBK,以使得此處正確顯示非亂碼的中文 而對於cmd:(中文的系統中)編碼為GBK,所以只要重新編碼為gb18030就可以正常輸出了 就是下面這行代碼 復制代碼 代碼如下: print (soup.title).encode('gb18030')
from bs4 import BeautifulSoup import urllib2 url = 'http://www.jb51.net/' page = urllib2.urlopen(url) soup = BeautifulSoup(page,from_encoding="utf8") print soup.original_encoding print (soup.title).encode('gb18030') file = open("title.txt","w") file.write(str(soup.title)) file.close() for link in soup.find_all('a'): print link['href']
解決方法二: BeautifulSoup在解析utf-8編碼的網頁時,如果不指定fromEncoding或者將fromEncoding指定為utf-8會出現中文亂碼的現象。 解決此問題的方法是將Beautifulsoup構造函數中的fromEncoding參數的值指定為:gb18030 復制代碼 代碼如下:
import urllib2 from BeautifulSoup import BeautifulSoup page = urllib2.urlopen('http://www.jb51.net/'); soup = BeautifulSoup(page,fromEncoding="gb18030") print soup.originalEncoding print soup.prettify()