python+selenium實現自動化百度搜索關鍵詞


通過python配合爬蟲接口利用selenium實現自動化打開chrome瀏覽器,進行百度關鍵詞搜索。

1、安裝python3,訪問官網選擇對應的版本安裝即可,最新版為3.7。

2、安裝selenium庫。

使用 pip install selenium 安裝即可。

同時需要安裝chromedriver,並放在python安裝文件夾下,如下圖所示。

3、獲取爬蟲接口鏈接。

注冊賬號,點擊爬蟲代理,領取每日試用。

from selenium import webdriver 
 
import requests,time 
 
 #自建IP池 
 
def get_proxy():
 
  r = requests.get('http://127.0.0.1:5555/random')
 
  return r.text 
 
import random 
 
FILE = './tuziip.txt'
 
# 讀取的txt文件路徑 
 
# 獲取代理IP 
 
def proxy_ip():
 
  ip_list = []
 
  with open(FILE, 'r') as f:
 
    while True:
 
      line = f.readline()
 
      if not line:
 
        break
 
      ip_list.append(line.strip())
 
  ip_port = random.choice(ip_list)
 
  return ip_port 
 
def bd():
 
  chromeOptions = webdriver.ChromeOptions()
 
  # 設置代理  
 
chromeOptions.add_argument("--proxy-server=http://"+proxy_ip())  
 
# 一定要注意,=兩邊不能有空格,不能是這樣--proxy-server = http://202.20.16.82:10152
 
  browser = webdriver.Chrome(chrome_options = chromeOptions)  
 
# 查看本機ip,查看代理是否起作用  
 
  browser.get("https://www.baidu.com/")  
 
  browser.find_element_by_id("kw").send_keys("ip")
 
  browser.find_element_by_id("su").click()
 
  time.sleep(2)
 
  browser.find_element_by_id("kw").clear()
 
  time.sleep(1)
 
  browser.find_element_by_id("kw").send_keys("百度")
 
  browser.find_element_by_id("su").click()
 
  time.sleep(2)
 
  browser.find_element_by_id("kw").clear()
 
  time.sleep(1)
 
  browser.find_element_by_id("kw").send_keys("百度")
 
  browser.find_element_by_id("su").click()
 
  time.sleep(2)
 
  browser.find_element_by_id("kw").clear()
 
  time.sleep(1)
 
  browser.close()  
 
# 退出,清除瀏覽器緩存
 
  browser.quit() 
 
if __name__ == "__main__":
 
  while True:
 
    bd()

5、運行程序,如下圖所示,可自動化搜索。

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM