Python爬蟲框架Scrapy安裝使用步驟


一、爬蟲框架Scarpy簡介
Scrapy 是一個快速的高層次的屏幕抓取和網頁爬蟲框架,爬取網站,從網站頁面得到結構化的數據,它有着廣泛的用途,從數據挖掘到監測和自動測試,Scrapy完全用Python實現,完全開源,代碼托管在Github上,可運行在Linux,Windows,Mac和BSD平台上,基於Twisted的異步網絡庫來處理網絡通訊,用戶只需要定制開發幾個模塊就可以輕松的實現一個爬蟲,用來抓取網頁內容以及各種圖片。

二、Scrapy安裝指南

我們的安裝步驟假設你已經安裝一下內容:<1>Python2.7<2>lxml<3>OpenSSL,我們使用Python的包管理工具pip或者easy_install來安裝Scrapy。
pip的安裝方式:

復制代碼代碼如下:
pip install Scrapy


easy_install的安裝方式:

復制代碼代碼如下:
easy_install Scrapy

 

三、Ubuntu平台上環境配置

1、python的包管理工具
當前的包管理工具鏈是 easy_install/pip + distribute/setuptools
distutils : Python 自帶的基本安裝工具, 適用於非常簡單的應用場景; 
setuptools : 針對 distutils 做了大量擴展, 尤其是加入了包依賴機制. 在部分 Python 子社區已然是事實上的標准;
distribute : 由於 setuptools 開發進度緩慢, 不支持 Python 3, 代碼混亂, 一幫程序員另起爐灶, 重構代碼, 增加功能, 希望能夠取代 setuptools 並被接納為官方標准庫, 他們非常努力, 在很短的時間便讓社區接受了 distribute;,setuptools / distribute 都只是擴展了 distutils;
easy_install : setuptools 和 distribute 自帶的安裝腳本, 也就是一旦 setuptools 或 distribute 安裝完畢, easy_install 也便可用. 最大的特點是自動查找 Python 官方維護的包源 PyPI , 安裝第三方 Python 包非常方便; 使用:
pip : pip 的目標非常明確 – 取代 easy_install. easy_install 有很多不足: 安裝事務是非原子操作, 只支持 svn, 沒有提供卸載命令, 安裝一系列包時需要寫腳本; pip 解決了以上問題, 已儼然成為新的事實標准, virtualenv 與它已經成為一對好搭檔;

安裝過程:
安裝distribute   

復制代碼代碼如下:
$ curl -O http://python-distribute.org/distribute_setup.py  
$ python distribute_setup.py


安裝pip:

復制代碼代碼如下:
$ curl -O https://raw.github.com/pypa/pip/master/contrib/get-pip.py  
$ [sudo] python get-pip.py

 

2、Scrapy的安裝
在Windows平台上,可以通過包管理工具或者手動下載各種依賴的二進制包:pywin32,Twisted,zope.interface,lxml,pyOpenSSL,在Ubuntu9.10以后的版本上,官方推薦不用使用Ubuntu提供的python-scrapy包,它們要么太老要么太慢,無法匹配最新的Scrapy,解決方案是,使用官方的Ubuntu Packages,它提供了所有的依賴庫,並且對於最新的bug提供持續的更新,穩定性更高,它們持續的從Github倉庫(master和stable branches)構建,Scrapy在Ubuntu9.10之后的版本上的安裝方法如下:
<1>輸入GPG密鑰

復制代碼代碼如下:
sudo apt-key adv --keyserver hkp://keyserver.ubuntu.com:80 --recv 627220E7


<2>創建/etc/apt/sources.list.d/scrapy.list 文件

復制代碼代碼如下:
echo 'deb http://archive.scrapy.org/ubuntu scrapy main' | sudo tee /etc/apt/sources.list.d/scrapy.list


<3>更新包列表,安裝scrapy版本,其中VERSION用實際的版本代替,如scrapy-0.22

復制代碼代碼如下:
sudo apt-get update && sudo apt-get install scrapy-VERSION

 

3、Scrapy依賴庫的安裝
ubuntu12.04下scrapy依賴庫的安裝
ImportError: No module named w3lib.http

復制代碼代碼如下:
pip install w3lib


ImportError: No module named twisted

復制代碼代碼如下:
pip install twisted


ImportError: No module named lxml.html

復制代碼代碼如下:
pip install lxml


解決:error: libxml/xmlversion.h: No such file or directory

 

 

復制代碼代碼如下:
apt-get install libxml2-dev libxslt-dev  
apt-get install python-lxml


解決:ImportError: No module named cssselect

 

 

復制代碼代碼如下:
pip install cssselect 


ImportError: No module named OpenSSL

復制代碼代碼如下:
pip install pyOpenSSL 

 

4、定制自己的爬蟲開發
切換到文件目錄,開啟新的工程

復制代碼代碼如下:
scrapy startproject test


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM