【python】获取指定网页上的所有超级链接


# -*- coding: utf-8 -*-
import urllib2
import re

#connect to a URL
website = urllib2.urlopen("http://www.baidu.com")
#read html code
html = website.read()
#use re.findall to get all the links
links = re.findall('"((http|ftp)s?://.*?)"', html)  ###".*?"任意匹配
print links

  


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM