一、爬蟲框架Scarpy簡介
Scrapy 是一個快速的高層次的屏幕抓取和網頁爬蟲框架,爬取網站,從網站頁面得到結構化的數據,它有着廣泛的用途,從數據挖掘到監測和自動測試,Scrapy完全用Python實現,完全開源,代碼托管在Github上,可運行在Linux,Windows,Mac和BSD平台上,基於Twisted的異步網絡庫來處理網絡通訊,用戶只需要定制開發幾個模塊就可以輕松的實現一個爬蟲,用來抓取網頁內容以及各種圖片。
二、Scrapy安裝指南
我們的安裝步驟假設你已經安裝一下內容:<1>Python2.7<2>lxml<3>OpenSSL,我們使用Python的包管理工具pip或者easy_install來安裝Scrapy。
pip的安裝方式:
easy_install的安裝方式:
三、Ubuntu平台上環境配置
1、python的包管理工具
當前的包管理工具鏈是 easy_install/pip + distribute/setuptools
distutils : Python 自帶的基本安裝工具, 適用於非常簡單的應用場景;
setuptools : 針對 distutils 做了大量擴展, 尤其是加入了包依賴機制. 在部分 Python 子社區已然是事實上的標准;
distribute : 由於 setuptools 開發進度緩慢, 不支持 Python 3, 代碼混亂, 一幫程序員另起爐灶, 重構代碼, 增加功能, 希望能夠取代 setuptools 並被接納為官方標准庫, 他們非常努力, 在很短的時間便讓社區接受了 distribute;,setuptools / distribute 都只是擴展了 distutils;
easy_install : setuptools 和 distribute 自帶的安裝腳本, 也就是一旦 setuptools 或 distribute 安裝完畢, easy_install 也便可用. 最大的特點是自動查找 Python 官方維護的包源 PyPI , 安裝第三方 Python 包非常方便; 使用:
pip : pip 的目標非常明確 – 取代 easy_install. easy_install 有很多不足: 安裝事務是非原子操作, 只支持 svn, 沒有提供卸載命令, 安裝一系列包時需要寫腳本; pip 解決了以上問題, 已儼然成為新的事實標准, virtualenv 與它已經成為一對好搭檔;
安裝過程:
安裝distribute
$ python distribute_setup.py
安裝pip:
$ [sudo] python get-pip.py
2、Scrapy的安裝
在Windows平台上,可以通過包管理工具或者手動下載各種依賴的二進制包:pywin32,Twisted,zope.interface,lxml,pyOpenSSL,在Ubuntu9.10以后的版本上,官方推薦不用使用Ubuntu提供的python-scrapy包,它們要么太老要么太慢,無法匹配最新的Scrapy,解決方案是,使用官方的Ubuntu Packages,它提供了所有的依賴庫,並且對於最新的bug提供持續的更新,穩定性更高,它們持續的從Github倉庫(master和stable branches)構建,Scrapy在Ubuntu9.10之后的版本上的安裝方法如下:
<1>輸入GPG密鑰
<2>創建/etc/apt/sources.list.d/scrapy.list 文件
<3>更新包列表,安裝scrapy版本,其中VERSION用實際的版本代替,如scrapy-0.22
3、Scrapy依賴庫的安裝
ubuntu12.04下scrapy依賴庫的安裝
ImportError: No module named w3lib.http
ImportError: No module named twisted
ImportError: No module named lxml.html
解決:error: libxml/xmlversion.h: No such file or directory
apt-get install python-lxml
解決:ImportError: No module named cssselect
ImportError: No module named OpenSSL
4、定制自己的爬蟲開發
切換到文件目錄,開啟新的工程