js反爬:请开启JavaScript并刷新该页


中国人民银行网站中的这个栏目为例:http://www.pbc.gov.cn/zhengcehuobisi/125207/125217/125925/17105/index1.html

如果直接用request.get(url),就会得到下图的JavaScript并刷新该页,跟着一堆乱七八糟代码。

简单来说,就是html文件中包含cookie设置和动态跳转网址的js代码,访问这个网页时js会设置cookie然后重定向到另一个网页,所以只是get这个url是不行的。

同理,如果清除cookie,在浏览器中f12,然后按f1禁用js

 

 刷新页面,就会出现下图乱码,其实就是之前跑代码得到的 “请开启JavaScript并刷新该页” 提示。

 

因此,要爬取这个网站的关键问题有两个,一个是用js重定向,一个是保存cookie。

先看看返回的网页的js代码。

 

这就很乱了,随便用个js代码格式化网站,比如 https://www.bm8.com.cn/jsConfusion/

这样就可以比较清晰的看到js代码。

一顿分析之后,实现抓取的过程如下:

先get之前能得到的带有js的html。

将其中的js代码正则提取出来。

将里面的atob替换为window["atob"],增加window对象,函数getURL()返回window["location"],即跳转的链接尾缀。

将这个修改后js代码执行,得到尾缀,与原URL链接,得到重定向的URL。

还有就是cookie问题,直接用requests的session处理就好。

def getPage(URL): sess = requests.session() jsPage = sess.get(URL).text js = re.findall(r'<script type="text/javascript">([\w\W]*)</script>', jsPage)[0] js = re.sub(r'atob\(', 'window["atob"](', js) js2 = 'function getURL(){ var window = {};' + js + 'return window["location"];}' ctx = execjs.compile(js2) tail = ctx.call('getURL') URL2 = urljoin(URL, tail) page = sess.get(URL2) page.encoding = 'UTF-8'
    return page

最后,在连续抓取页面时有时会报错,加了一两秒延迟就好了。还是会偶尔报错,用异常抛出让它重试即可。

 


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM