KevinLiangX

Results 14 comments of KevinLiangX

hello this is just our test case for DFX 1、find out the fluent-operator docker process [root@k8s-4 ~]# docker ps |grep fluentbit-operator 892bf193483f rvm:5100/kubesphere/fluentbit-operator "/manager" 2 days ago Up 2 days...

It's pleasure to involve in our project . we have put it in our development plan. if it work fine ,i will update it in our project . @wenchajun

@jackjiali hello sir , how do you set the paramater num_thread with CLI , I see there no command in the ollama CLI , root@ubuntu:customize_mode# ollama Usage: ollama [flags] ollama...

hello i also get this same issue in my cluster . karmada is ready, but get the dashboard token to login UI ,it show request failed. to check the karmada-apiserver...

有没有考虑 每次从es获取数据,都是全量还是 可以获取某个时间间隔的,例如配置了1个小时,每次获取只是这个1个小时数据 interval: 30s # pull data frequency 这是每个30秒拉一次数据吧 ,这样子, 数据不就重复了

文档在更新更新吧,noData模式是干啥的? ”noData模式必填,在一定时间内,没有日志会发出告警。“ 配置6个小时,意思是这6个小时,匹配了日志,也不发送任何告警, 这是啥场景?

@Karql hello Karql About the nodejs log,We have one more scene. we also use the es to store log and index , however ,the nodejs log is not continuous ,...

这种小模型特别适合资源紧张的情况下使用,但是现在模型一天一样,其实最好是跟其他开源的组件进行集成,而不是自己fork,自己再搞一套,这样子对自己模型的生态不好,毕竟,不是所有人都会去编译,去更换自己环境中的组件。哈哈哈 因为我搞了好久也没搞好,很是苦恼。

> 我们会尽快支持llama.cpp和Ollama的官方版本。 感谢大佬,祝愿我们MiniCPM越来越好。

# pip list |grep llama llama-cpp-python 0.2.90 报的是 不支持的模型架构 llama_model_load: error loading model: error loading model architecture: unknown model architecture: 'minicpm3 > llama.cpp官方版本已经支持了MiniCPM3-4B。GGUF版本的模型见[这里](https://huggingface.co/openbmb/MiniCPM3-4B-GGUF)。