liyanfu520
liyanfu520
为了处理5万多行的分词数据,改写了脚本案例 import sys,os,time sys.path.append(os.path.abspath(os.path.dirname(__file__) + '/' + '..')) from ltp import LTP root_path=os.path.abspath(os.path.dirname(__file__) + '/' + '..') ltp = LTP(path = "base") url = "tests/zrbzdz.txt" t1 = time.time() url =...
请问LTP是基于哪个语料库下载的呢
就是LTP有没有类似jieba、IK的分词器,可以供elasticsearch直接调用? 类似下面的analyzer analyzer="ik_smart" res=es.indices.analyze(body= { "analyzer": analyzer, "text": "我爱北京天安门" })
目前的elasticsearch插件最高支持到7.9.1:elasticsearch-thulac-plugin-7.9.1 什么时候更新thulac插件,可以支持到更高版本的elasticsearch?
不支持cad通用格式dwg吗?
尝试用来对全景图进行人脸识别,可能是全景图跟普通图片有些不同,识别的效率比较低,那么如何提高对全景图的识别效率呢
如何部署到docker中?
ltp.pipeline() 没有精确模式、全模式、搜索引擎模式之分了吗,如果想要搜索引擎模式分词,怎么设置啊
# 加载LTP分词模型 from ltp import LTP # print(torch.cuda.is_available()) ltp = LTP( "LTP/base2") if torch.cuda.is_available(): ltp.cuda() ltp.to("cuda") 报错 RuntimeError: C:\Users\joint\.cache\huggingface\hub\models--LTP--base2\snapshots\70c57011dab606d130c4027705fa155118ca396f\pytorch_model.bin is a zip archive (did you mean to use torch.jit.load()?)