社区
脚本语言
帖子详情
Python爬虫的问题(jieba wordcloud)
Shorec
2019-06-24 10:58:48
想要排除13行列出的词汇但试了很多次都不行
...全文
239
2
打赏
收藏
Python爬虫的问题(jieba wordcloud)
想要排除13行列出的词汇但试了很多次都不行
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
2 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
一笑程序猴
2019-06-26
打赏
举报
回复
从你的代码上看貌似只对counts字典进行了删除操作,而并没有对words进行删除操作,后面使用的应该用的是words吧。所以最终是没有排除掉的。
考古学家lx(李玺)
2019-06-26
打赏
举报
回复
您这是爬虫问题吗
Python
爬虫
携程成都旅游景点评论 pyecharts 画点画各地游客航线
word
cloud
词云图情感分析 selenium
Python
爬虫
获取携程成都旅游攻略网站 获取景点评论 pyecharts程度地图画点 画各地游客航线 统计 成都民宿航班图柱状图箭头图雷达图 html
jieba
分词
word
cloud
词云图 情感分析 selenium浏览器多页
爬虫
+数据分析+统计图 游客信息行程信息挖掘 jupyter notebook numpy pandas 数据分析 数据挖掘
【
Python
爬虫
实例学习篇】——5、【超详细记录】从爬取微博评论数据(免登陆)到生成词云
【
Python
爬虫
实例学习篇】——5、【超详细记录】从爬取微博评论数据(免登陆)到生成词云 个人博客地址:ht/tps://www.asyu17.cn/ 精彩部分提醒: (1)微博评论页详情链接为一个js脚本 (2)获取js脚本链接需要该条微博的mid参数 (3)获取mid参数需要访问微博主页 (4)访问微博主页需要先进行访客认证 (5)微博主页几乎是由弹窗构成,所有html代码被隐藏在FM.view()函数的参数中,该参数是json格式 工具:
Python
3.6 requests 库 json 库 lxml 库 urllib 库
jieba
库(进行分词)
Word
Cloud
库(产生词
Python
+淘宝网商品数据分析+原代码.txt
标题:
Python
爬取淘宝商品数据挖掘分析实战 项目内容: 本案例选择>> 商品类目:沙发; 筛选条件:天猫、销量从高到低、价格500元以上; 数量:共100页 4400个商品。 分析目的: 1. 对商品标题进行文本分析 词云可视化 2. 不同关键词
word
对应的sales的统计分析 3. 商品的价格分布情况分析 4. 商品的销量分布情况分析 5. 不同价格区间的商品的平均销量分布 6. 商品价格对销量的影响分析 7. 商品价格对销售额的影响分析 8. 不同省份或城市的商品数量分布 9. 不同省份的商品平均销量分布 注:本项目仅以以上几项分析为例。 项目步骤: 1. 数据采集:
Python
爬取淘宝网商品数据 2. 对数据进行清洗和处理 3. 文本分析:
jieba
分词、
word
cloud
可视化 4. 数据柱形图可视化 barh 5. 数据直方图可视化 hist 6. 数据散点图可视化 scatter 7. 数据回归分析可视化 regplot
Python
Demo+
Python
Spider
Python
Demo文件夹: 包含第三库:matplotlib(2D绘图库),
word
cloud
(词云),
jieba
(中文分词),SnowNLP(Simplified Chinese Text Processing)以及numpy的例子 以及使用itchat以及wxpy对微信好友信息实现的统计以及基于图灵机器人实现的微信聊天机器人。 用
python
玩微信(聊天机器人,好友信息统计)
Python
第三方库matplotlib(2D绘图库)入门与进阶
Python
第三方库
word
cloud
(词云)快速入门与进阶
Python
第三方库
jieba
(中文分词)入门与进阶(官方文档))
Python
第三方库SnowNLP(Simplified Chinese Text Processing)快速入门与进阶)
Python
Spider文件夹 主要包括一些
爬虫
(知乎,妹子图等等)的实现,目前更新了下列文章 selenium在
爬虫
领域的初涉(自动打开网站爬取信息)
【
python
网络
爬虫
】-制作词云图
【
python
网络
爬虫
】-制作词云图 # 使用import导入requests模块 import requests # 从bs4中导入BeautifulSoup from bs4 import BeautifulSoup # 使用import导入
jieba
模块 import
jieba
# 从pyecharts.charts中导入
Word
Cloud
模块 from pyecharts.charts import
Word
Cloud
# 将豆瓣电影评论URL地址,赋值给变量url url = "https://movie.douban.com/subject/2129039/comments?sort=new_score&status=P"
脚本语言
37,719
社区成员
34,238
社区内容
发帖
与我相关
我的任务
脚本语言
JavaScript,VBScript,AngleScript,ActionScript,Shell,Perl,Ruby,Lua,Tcl,Scala,MaxScript 等脚本语言交流。
复制链接
扫一扫
分享
社区描述
JavaScript,VBScript,AngleScript,ActionScript,Shell,Perl,Ruby,Lua,Tcl,Scala,MaxScript 等脚本语言交流。
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
试试用AI创作助手写篇文章吧
+ 用AI写文章