python爬蟲相關庫安裝


 

 

python爬蟲涉及的庫:

請求庫,解析庫,存儲庫,工具庫

 

1. 請求庫:urllib/re/requests

(1) urllib/re是python默認自帶的庫,可以通過以下命令進行驗證:

沒有報錯信息輸出,說明環境正常

 

(2) requests安裝

2.1 打開CMD,輸入

pip3 install requests

2.2 等待安裝后,驗證

(3) selenium安裝(驅動瀏覽器進行網站訪問行為)

3.1 打開CMD,輸入

pip3 install selenium

3.2 安裝chromedriver

網址:https://npm.taobao.org/

把下載完成后的壓縮包解壓,把exe放到D:\Python3.6.0\Scripts\

這個路徑只要在PATH變量中就可以

3.3 等待安裝完成后,驗證

回車后彈出chrome瀏覽器界面

3.4 安裝其他瀏覽器

無界面瀏覽器phantomjs

下載網址:http://phantomjs.org/

下載完成后解壓,把整個目錄放到D:\Python3.6.0\Scripts\,把bin目錄的路徑添加到PATH變量

驗證:

打開CMD

phantomjs
console.log('phantomjs')

CTRL+C

python
from selenium import webdriver
driver = webdriver.PhantomJS()
dirver.get('http://www.baidu.com')
driver.page_source

 

2. 解析庫:

2.1 lxml (XPATH)

打開CMD

pip3 install lxml

或者從https://pypi.python.org下載,例如,lxml-4.1.1-cp36-cp36m-win_amd64.whl (md5) ,先下載whl文件

pip3 install 文件名.whl

 

2.2 beautifulsoup

打開CMD,需要先安裝好lxml

pip3 install beautifulsoup4

驗證

python
from bs4 import BeautifulSoup
soup = BeautifulSoup('<html></html>','lxml')

 

2.3 pyquery(類似jquery語法)

打開CMD

pip3 install pyquery

驗證安裝結果

python
from pyquery import PyQuery as pq
doc = pq('<html>hi</html>')
result = doc('html').text()
result

 

3. 存儲庫

3.1 pymysql(操作MySQL,關系型數據庫)

安裝:

pip3 install pymysql

安裝后測試:

 

 

3.2 pymongo(操作MongoDB,key-value)

安裝

pip3 install pymongo

驗證

python
import pymongo
client = pymongo.MongoClient('localhost')
db = client['testdb']
db['table'].insert({'name':'bob'})
db['table'].find_one({'name':'bob'})

 

3.3 redis(分布式爬蟲,維護爬取隊列)

安裝:

pip3 install redis

驗證:

 

4.工具庫

4.1 flask(WEB庫)

pip3 install flask

 

4.2 Django(分布式爬蟲維護系統)

 

pip3 install django

 

4.3 jupyter(運行在網頁端的記事本,支持markdown,可以在網頁上運行代碼)

pip3 install jupyter

 驗證:

打開CMD

jupyter notebook

之后就可以在網頁直接創建記事本,代碼塊和Markdown塊,支持打印


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM