jie
jie
字段里面有‘了不起’。 搜索liaobuqi 不行,要搜索lequqi才可以。
curl http://127.0.0.1:9200/_analyze/ -d '{"analyzer": "pinyin", "text": "了不起"}' {"tokens":[{"token":"le","start_offset":0,"end_offset":1,"type":"word","position":0},{"token":"bu","start_offset":1,"end_offset":2,"type":"word","position":1},{"token":"qi","start_offset":2,"end_offset":3,"type":"word","position":2},{"token":"lbq","start_offset":0,"end_offset":3,"type":"word","position":3}]} 测试分词情况,结果也是lebuqi.
另外,如果我要自己配置多音词词典,需要在哪个配置文件里面配置,配置格式是什么样的?示例及文档上似乎没有这方面的说明。
使用临时办法解决,自己去网上找了sougou的拼音词库,然后用python脚本,分析处理,并写入到nlp-lang-1.7.jar中的默认资源文件中。具体过程及脚本,可以看看这里: https://github.com/jie123108/elasticsearch-analysis-pinyin-dict
I have implemented one, see here: https://github.com/jie123108/libimgsmlr
18年6月怕是上不了线了.
I passed the test with your case. It works in both s3 and minio. Can you check, if there is something wrong with the s3 configuration?
I'm sorry, I wasn't able to reproduce the issue, I used a `eu-west-1` bucket for the test, and again Added the "Content-Type" header to the put request in `test-s3.lua: test_01put()...
对不起,这部分代码我没有仔细看。只是按键ngx_lua中拷贝过来的。 另外,他的逻辑应该是没问题的,这个我是测试过的。 [email protected] 发件人: daohang 发送时间: 2015-05-20 14:13 收件人: jie123108/ngx_shmap 主题: [ngx_shmap] 您好,大致分析了下您的代码,有几个问题想请教下您~ (#1) 我看您的代码貌似每次插入都是在链表的头部插入ngx_queue_insert_head ,并不是根据过期时间来排序插入的? 会不会导致我的过期时间长的数据,被提取给删除掉了~ — Reply to this email directly or view it on GitHub.
锁是整块共享内存一把锁的,测试之前是有测试过的,不过结果已经不存在了。性能还是不错的吧,比使用redis/memcached肯定高效很多,使用上基本上不会成为瓶颈。