社区
下载资源悬赏专区
帖子详情
IKSegment分词源码下载
weixin_39820535
2019-09-25 05:30:31
可以将一篇文档分词,完成词频统计,制作总词表,制作倒排索引表。
相关下载链接:
//download.csdn.net/download/lianyun017/9873165?utm_source=bbsseo
...全文
12
回复
打赏
收藏
IKSegment分词源码下载
可以将一篇文档分词,完成词频统计,制作总词表,制作倒排索引表。 相关下载链接://download.csdn.net/download/lianyun017/9873165?utm_source=bbsseo
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
IKSegment
分
词源
码
可以将一篇文档分词,完成词频统计,制作总词表,制作倒排索引表。
word2vec词向量训练及中文文本相似度计算 【源码+语料】
该资源主要参考我的博客:word2vec词向量训练及中文文本相似度计算 http://blog.csdn.net/eastmount/article/details/50637476 其中包括C语言的Word2vec源代码(从官网
下载
),自定义爬取的三大百科(百度百科、互动百科、维基百科)中文语料,涉及到国家、景区、动物和人物。 同时包括60M的腾讯新闻语料,是一个txt,每行相当于一个新闻。 国家包括了Python的Jieba分词代码,详见博客。 免费资源希望对你有所帮助~
遗忘算法(词库生成、分词、词权重)演示程序.rar
遗忘算法演示程序及源码,功能包括词库生成、分词、词权重计算。是CSDN博文《非主流自然语言处理——遗忘算法系列》的配套资源。作者老憨欢迎交流讨论。
IKAnalyzer分词需要的所有jar
IKAnalyzer2012_u6.jar lucene-analyzers-common-4.3.0.jar lucene-core-4.3.0.jar lucene-queryparser-4.3.0.jar (都是官方
下载
的 2013/6/5)
jieba中文分
词源
码分析(一)
一、缘由接触自然语言处理(NLP)有段时间,理论知识有些了解,挺想动手写些东西,想想开源界关于NLP的东西肯定不少,其中分词是NLP的基础,遂在网上找了些资源,其中结巴分词是国内程序员用python开发的一个中文分词模块, 源码已托管在github: 源码地址 ,代码用python实现,源码中也有注释,但一些细节并没有相应文档,因此这里打算对源码进行分析,一来把知识分享,让更多的童鞋更快的对源码有个
下载资源悬赏专区
12,908
社区成员
12,455,830
社区内容
发帖
与我相关
我的任务
下载资源悬赏专区
CSDN 下载资源悬赏专区
复制链接
扫一扫
分享
社区描述
CSDN 下载资源悬赏专区
其他
技术论坛(原bbs)
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章