Python requests 獲取網頁一般的方法


主要記錄使用 requests 模塊獲取網頁源碼的方法

class Crawler(object):
    """
    采集類
    """
    def __init__(self, base_url):
        self._base_url = base_url
        self._cookie = None
        self._getCookie()

    def _getCookie(self):
        """
        獲取站點cookie
        :return:
        """
        try:
            res = requests.get(self._base_url)
            res.raise_for_status()
            # TODO response.cookies獲取到的是一個cookiejar對象,需要使用requests.utils.dict_from_cookiejar來
            # TODO 將cookiejar對象轉換為一個字典,這個字典后續使用的時候,在請求時直接傳入就可以了,
            # 如  requests.get(url, cookies=cookies)
            self._cookie = requests.utils.dict_from_cookiejar(res.cookies)
            print self._cookie
        except Exception as e:
            print e

    def get_html_text(self, url, **kwargs):
        """
        爬取網頁的通用代碼框架
        :param url:
        :param method:
        :param kwargs:
        :return:
        """
        try:
            kwargs.setdefault('cookies', self._cookie)
            res = requests.get(url, **kwargs)
            # TODO 若響應狀態碼不是200, 拋出 HTTPError 異常
            res.raise_for_status()
            res.encoding = res.apparent_encoding
            # print requests.utils.dict_from_cookiejar(res.cookies)
            return res.text
        except Exception as e:
            print traceback.print_exc()
            return


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM