作业要求来自于:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE2/homework/3075 热门微博— —996与日剧《我要准时下班》 至此,“996话题”在微博上被传得沸沸扬扬。微博上关于“996”的话题已超过千个,甚至更多 ...
这个作业的要求来自于:https: edu.cnblogs.com campus gzcc GZCC SE homework 。 B站有很多号称 镇站之宝 的视频,拥有着数量极其恐怖的评论和弹幕。这次我的目的就是爬取B站视频的评论数据,分析某番剧为何会深受大家喜爱。 首先我通过B站大神的数据统计了解到,B站评论数量最多的番剧是 全职高手 。如下图所示: 通过数据可知 全职高手 这部番的第一集和最 ...
2019-04-24 22:41 0 574 推荐指数:
作业要求来自于:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE2/homework/3075 热门微博— —996与日剧《我要准时下班》 至此,“996话题”在微博上被传得沸沸扬扬。微博上关于“996”的话题已超过千个,甚至更多 ...
1.选一个自己感兴趣的主题(所有人不能雷同)。 2.用python 编写爬虫程序,从网络上爬取相关主题的数据。 3.对爬了的数据进行文本分析,生成词云。 4.对文本分析结果进行解释说明。 5.写一篇完整的博客,描述上述实现过程、遇到的问题及解决办法、数据分析思想 ...
一、题目: 获取并保存目标网站的下图所示的所有英文名,网页转换通过点击more names刷新名字并将各个英文名子目录下,去获取并保存每一个英文名的名字、性别、寓意、简介如下图所示内容红色标记框 ...
作业要求来自https://edu.cnblogs.com/campus/gzcc/GZCC-16SE1/homework/3159 可以用pandas读出之前保存的数据:见上次博客爬取全部的校园新闻并保存csv newsdf = pd.read_csv(r'F:\duym ...
1.选一个自己感兴趣的主题或网站。(所有同学不能雷同) https://www.bilibili.com/video/av22224421 2.用python 编写爬虫程序,从网络上爬取相关主题的数据。 3.对爬了的数据进行文本分析,生成词云。 4.对文 ...
本次作业的要求来自:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE2/homework/3339 前言 本次作业是在《爬虫大作业》的基础上进行的,在《爬虫大作业》中,我主要对拉勾网python岗位的招聘信息进行的数据爬取,最终得到了2641条数据存在 ...
# _*_ coding:utf-8 _*_ import requests import threading from bs4 import BeautifulSoup import re i ...
1.主题 虎扑体育网2016年至今关于巴萨的新闻 2.用python 编写爬虫程序,从网络上爬取相关主题的数据。 在虎扑巴萨新闻中用开发者工具找出相关信息 #新闻列表 def getListPage(pageUrl): res = requests.get ...