Stanford CoreNLP--Split Sentence


分句功能参考 Stanford Tokenizer

在edu.stanford.nlp.pipeline包中实现了一系列分词分句功能,其中SentenceAnnotator类实现了对文件分句功能.

运行Demo程序:在edu.stanford.nlp.pipeline.demo包中找到StanfordCoreNlpDemo类,设置propsprops.setProperty("annotators", "tokenize,ssplit"); ssplit表示分句,设置Arguments为要分句的文件,默认以句号+空格分句,输出如下:


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM