PS:当在搜索框检索“是”,根据lucenne存取记录,会有一张词汇表(词汇表会根据不同分词原则进行分词,可能是一个或者多个,右边里保存这标号)
创建索引库
/** ????* 创建索引库 ????* 将Aritcle对象放入索引库中的原始记录表中,从而形成词汇表 ????*/ ???@Test ???public void createIndexDB() throws Exception{ ???????//创建Article对象 ???????Article article = new Article(1,"培训","传智是一家IT培训机构"); ???????//创建Document对象 ???????Document document = new Document(); ???????//将Article对象中的三个属性值分别绑定到Document对象中 ???????/* ????????*参数一:document对象中的属性名叫xid,article对象中的属性名叫id,项目中提倡相同 ????????*参数二:document对象中的属性xid的值,与article对象中相同 ????????*参数三:是否将xid属性值存入由原始记录表中转存入词汇表 ????????* ??????Store.YES表示该属性值会存入词汇表 ????????* ??????Store.NO表示该属性值不会存入词汇表 ????????* ??????项目中提倡非id值都存入词汇表 ????????*参数四:是否将xid属性值进行分词算法 ????????* ??????Index.ANALYZED表示该属性值会进行词汇拆分 ????????* ??????Index.NOT_ANALYZED表示该属性值不会进行词汇拆分 ????????* ??????项目中提倡非id值都进行词汇拆分 ????????* ??????目前将分词理解为分汇拆分,目前认为一个汉字一个分词拆分 ?????????*/ ???????document.add(new Field("xid",article.getId().toString(),Store.YES,Index.ANALYZED)); ???????document.add(new Field("xtitle",article.getTitle(),Store.YES,Index.ANALYZED)); ???????document.add(new Field("xcontent",article.getContent(),Store.YES,Index.ANALYZED)); ???????????????Directory directory = ?FSDirectory.open(new File("E:/IndexDBDBDB")); ???????Version version = Version.LUCENE_30; ???????Analyzer analyzer = new StandardAnalyzer(version); //这种分词模型是按照单个字进行分词的 ???????MaxFieldLength maxFieldLength = MaxFieldLength.LIMITED; //如果有多余2万个字内容,只会以前1万个为准 ???????//创建IndexWriter字符流对象 ???????????????/* ????????????????* 参数一:lucene索引库最终应对于硬盘中的目录,例如:E:/IndexDBDBDB ????????????????* 参数二:采用什么策略将文本拆分,一个策略就是一个具体的实现类 ????????????????* 参数三:最多将文本拆分出多少词汇,LIMITED表示1万个,即只取前1万个词汇,如果不足1W个词汇个,以实际为准 ????????????????*/ ???????IndexWriter indexWriter = new IndexWriter(directory,analyzer,maxFieldLength); ???????//将document对象写入lucene索引库 ???????indexWriter.addDocument(document); ???????//关闭IndexWriter字符流对象 ???????indexWriter.close(); ???}
PS:创建好的文件
Lucene学习
原文地址:https://www.cnblogs.com/bee-home/p/9121583.html