刚完成的在Lucene.net中, 增加自己的中文分词Analyzer
http://blog.likeshow.net/article.asp?id=39
分词组件用的SHOOTSEG 继承Lucene.Net.Analysis.Analyzer,Lucene.Net.Analysis.Tokenizer,Lucene.Net.Analysis.TokenFilter实现了三个新子类ChineseAnalyer,ChineseTokenizer,ChineseFilter
使用只需要用ChineseAnalyer替换默认使用的StandardAnalyzer就OK了
文章内有详细代码及说明,并有编译好的组件提供使用