社区
下载资源悬赏专区
帖子详情
超详细的中文停用词表下载
PIPI_333
2018-08-16 09:06:28
文本分析--停用词集合,结合各高校及百度停用词表等相关文档整理而成
相关下载链接:
//download.csdn.net/download/ybk233/10606306?utm_source=bbsseo
...全文
108
回复
打赏
收藏
超详细的中文停用词表下载
文本分析--停用词集合,结合各高校及百度停用词表等相关文档整理而成 相关下载链接://download.csdn.net/download/ybk233/10606306?utm_source=bbsseo
复制链接
扫一扫
分享
转发到动态
举报
AI
作业
写回复
配置赞助广告
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
超
级全面的完整
停用词
表
超
级全面的完整
停用词
表
,可用于词频统计等,
超
级全面的完整
停用词
表
,可用于词频统计等
常用
停用词
表
整理(川大、哈工大、百度等)
Python 数据分析机器学习领域哈工大、川大等常用
停用词
表
超
详细
的
中文
停用词
表
文本分析--
停用词
集合,结合各高校及百度
停用词
表
等相关文档整理而成
哈工大
停用词
超
全版
哈工大
停用词
四川大学机器智能实验室
停用词
库 百度
停用词
项目实战-Bert文本分类(keras-bert实现)源代码及数据集.zip
1、内容概要:本资源主要基于bert(keras)实现文本分类,适用于初学者学习文本分类使用。 2、数据集为电商真实商品评论数据,主要包括训练集data_train,测试集data_test ,经过预处理的训练集clean_data_train和
中文
停用词
表
stopwords.txt,可用于模型训练和测试,
详细
数据集介绍见商品评论情感数据说明文档。 3、源代码:word2vec_analysis.py 是基于Word2Vec进行词向量的生成,采用向量平均求得句向量,然后分别构建RandomForest和GBDT分类模型进行文本分类。 4、源代码:bert_model.py是基于keras-bert构建Bert模型对文本进行分类。
下载资源悬赏专区
13,656
社区成员
12,674,760
社区内容
发帖
与我相关
我的任务
下载资源悬赏专区
CSDN 下载资源悬赏专区
复制链接
扫一扫
分享
社区描述
CSDN 下载资源悬赏专区
其他
技术论坛(原bbs)
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章