宁鹏涛
宁鹏涛
大佬回复真快,谢谢大佬。我试试换个清晰的静态图。
谢谢大佬,另外提个意见。我在网上随便下载一个新闻联播的视频,貌似必须先处理视频中的人脸,不然生成的动态视频人脸会扭曲。是否把这步骤写到手册里? import moviepy.editor as mpy import ppgan.faceutils.face_detection.detection.sfd as sfd import numpy from PIL import Image video = mpy.VideoFileClip("/home/ai/《中共中央关于党的百年奋斗重大成就和历史经验的决议》公布.mp4").subclip("00:00:01","00:00:60") frame = video.get_frame(1) detector = sfd.FaceDetector() face_rect = detector.detect_from_batch([frame])[0][0] clip = video.crop(x1...
好的。
@yuanzhiyong1999 peft降级用0.2.0版本
@Hzfengsy @taeyeonlee Would you consider indirect support through Android NNAPI instead of low level API support(android NNAPI will automatically switch between CPU, GPU, and NPU.It is possible that many optimization...
@ztxz16 近期有考虑支持在android上支持opencl推理吗?或者通过tvm支持opencl?
@ElectricCookie react server component + sitemap + metadata as MCP server?
@jingyaogong 感谢你的回复。 最近看到的一篇论文,你看是否感兴趣,在比较小的模型上实现这样的效果,网传这个就是open ai o1的原理。 [Scaling LLM Test-Time Compute Optimally can be More Effective than Scaling Model Parameters](https://arxiv.org/abs/2408.03314) 以下是通过txyz.ai 自动生成的总结: ### Summary 这篇论文研究了大型语言模型(LLM)在推理时计算的缩放,以提高它们在具有挑战性的提示上的性能。作者分析了两种主要的机制来缩放测试时间计算:(1) 搜索基于密集的、基于过程的验证器奖励模型;以及(2) 根据测试时的提示自适应地更新模型对响应的分布。他们发现不同缩放测试时间计算的方法的有效性严重依赖于提示的难度。这一观察结果激发了应用"计算最优"缩放策略,该策略旨在最有效地根据每个提示自适应地分配测试时间计算。使用这种计算最优策略,作者可以将测试时间计算缩放的效率提高超过4倍,相比于最佳N个基线。此外,他们发现在较小的基础模型能够获得一定的成功率的问题上,测试时间计算可以用于超越一个14倍大的模型在FLOPS匹配的评估中的性能。 ### Key Points - 增加测试时计算量可能比增加模型参数更有效地提高大型语言模型在具有挑战性的提示上的性能。...
@jingyaogong 有人基于mistral 7b用dsft和ddpo方法训练的新模型,你看是否可以参考。https://zhuanlan.zhihu.com/p/668544998
@qiyuxinlin moonlight only support linear and dynamic not support yarn. remove this line on llama-model.cpp 1083. ```cpp ml.get_key(LLM_KV_ROPE_SCALING_YARN_LOG_MUL, hparams.rope_yarn_log_mul); ```