一、任务描述
本实验任务主要对网络爬虫进行一些基本操作,通过完成本实验任务,要求学生熟练掌握网络爬虫的网络请求及数据解析,并对网络爬虫的基本操作进行整理并填写工作任务报告。
二、任务目标
1、掌握正则表达式
2、掌握网络爬虫的原理
三、任务环境
Ubuntu16.04、Python2.7
四、任务分析
学习爬虫,首先是要学习它的原理。打开网址,每页都有很多套图,如果要手动去保存,怎么操作?想应该是这样,从第一页开始,点进第一个套图,然后保存每张图片,然后进行第二个套图……第一页完了之后第二页,从第一个套图开始,保存保存……这就是原理,当然,虽然这样能达到这个目的,但大家应该没有那么多的时间,那么就来学习爬虫,来保存图片。
五、任务实施
步骤1、环境准备
右击Ubuntu操作系统桌面,从弹出菜单中选择【Open in Terminal】命令 打开终端。
通过【cd /home】切换到home目录下。【ls】查看该目录下的所有内容。

【mkdir Image】在home目录下创建Image文件夹。

步骤2、爬虫分析
爬取的MM图片URL为https://mm.taobao.com/search_tstar_model.htm?
打开浏览器输入该URL,查看界面效果。把所有的MM图片下载下来。

通过【cd /Image】切换到Image目录下。【vim taobaoMM.py】回车后创建并编辑taobaoMM.py的Python文件。

回车后进入编辑框内,按键盘【i】进入编辑状态,编译如下程序。
导入程序所需的所有库。

browserPath是Phantomjs的路径
homeUrl是爬取的页面
outputDir是保存的文件夹路径
parser是解析器

加载PhantomJS的浏览器,通过driver.get(url)来访问URL,用BeautifulSoup来对得到爬取的URL进行解析。driver.page_source是网页的全部HTML源码。最后通过主方法来调用main方法。

编辑完毕后,按【esc】退出编辑状态,【:wq】保存并退出编辑框,【python taobaoMM.py】执行taobaoMM的Python文件。driver.page_source输出的结果是网页的全部HTML源码。

打开访问URL的浏览器,右键选择【Inspect Element(Q)】根据判断得知,MM的所有信息在id为J_GirlsList
内。

【vim taobaoMM.py】再次编辑taobaoMM.py文件。
在main函数内通过find_element_by_id获得所有信息,正则表达式获取妹子的封面图片以及个人主页的地址。

在main函数内通过list列表的截取得到妹子的名字地点、身高体重、个人主页地址以及封面图片地址。

在main函数内将妹子的信息通过zip函数封装(zip函数接受任意多个(包括0个和1个)序列作为参数,返回一个tuple列表)。再通过for循环,对妹子的信息进行写入。

定义mkdir函数,判断图片输出的路径是否存在,不存在则创建。

在主方法内调用mkdir函数,并将输出路径作为参数传递。

编辑完毕后,按【esc】退出编辑状态,【:wq】保存并退出编辑框,【python taobaoMM.py】执行taobaoMM的Python文件。爬取需要几分钟。静等几分钟后。打开/home/Image/MMImage下。发现生成很多文件夹。

每个目录下都包含MM的主图以及保存信息的txt文件。

txt文件内包含了MM的基本信息。

步骤3、源代码
#coding:utf-8
import os
import re
from bs4 import BeautifulSoup
import urllib2
from selenium import webdriver
import sys
reload(sys)
sys.setdefaultencoding( "utf-8" )
browserPath = "/home/soft/phantomjs/bin/phantomjs"
homeUrl = "https://mm.taobao.com/search_tstar_model.htm?"
outputDir = "MMImage/"
parser = "html5lib"
def main():
#PhantomJS浏览器的地址
driver = webdriver.PhantomJS(executable_path=browserPath)
#访问目标网页地址
driver.get(homeUrl)
#解析目标网页的 Html 源码
bsObj = BeautifulSoup(driver.page_source,parser)
#获得主页上所有妹子的姓名、所在城市、身高、体重等信息
girlsList = driver.find_element_by_id("J_GirlsList").text.split("\n")
#获取所有妹子的封面图片
imagesUrl = re.findall(r"//gtd.alicdn.com/sns_logo.*.jpg",driver.page_source)
#解析出妹子的个人主页地址等信息
girlsUrl = bsObj.find_all("a",{"href":re.compile("\/\/.*\.htm\?(userId=)\d*")})
# 所有妹子的名字地点
girlNL = girlsList[::3]
# 所有妹子的身高体重
girlsHW = girlsList [1::3]
# 所有妹子的个人主页地址
girlsHURL = [("http:" + i["href"]) for i in girlsUrl]
# 所有妹子的封面图片地址
girlsPhotoURL = [("https:" + i) for i in imagesUrl]
girlsInfo = zip(girlNL, girlsHW, girlsHURL, girlsPhotoURL)
for girlNL,girlHW,girlHURL,girlCover in girlsInfo:
#建立文件夹
mkdir(outputDir + girlNL)
# 获取妹子封面图片
data = urllib2.urlopen(girlCover).read()
with open(outputDir + girlNL + "/cover.jpg","wb") as f:
f.write(data)
f.close()
with open(outputDir + girlNL + "/information.txt","wb") as a:
a.write("Name And City:" + girlNL + "\n")
a.write("Hight And weight:" + girlHW + "\n")
a.write("personal homepage:" + girlHURL)
a.close()
driver.close()
def mkdir(path):
#判断路径是否存在
isExists = os.path.exists(path)
#判断结果
if not isExists:
#如果不存在则创建目录
print(" 新建了文件夹",path)
#创建目录操作函数
os.makedirs(path)
else:
#如果目录存在则不创建,并提示目录已存在
print("文件夹", path, "已创建")
if __name__ == "__main__":
if not os.path.exists(outputDir):
os.makedirs(outputDir)
main()