马少杰
马少杰
英语不太好,我就直接写中文了, 以上问题我已经解决,希望对有需要的人有帮助 经过多天研读源码,加上看threejs范例,最终花了五天时间找到了方案【之前没怎么做过这方面底层】 现在有一个建议提给Aframe官方:我们对WebGLRenderer的封装太过死板了,虽然有onBeforeRender和onAfterRender这两个函数,但是不足以支撑我们的特殊场景 1、在我们需要做多通道渲染时候,每个通道都会调用renderer.render(),如果我们想依靠onBeforeRender和onAfterRender解决这一问题,这会导致递归,造成栈溢出,而且a-sence.js中render()的renderer.render(this.object3D, this.camera);调用会冗余 2、如果我们通过修改源码禁用a-sence.js中的play()的renderer.setAnimationLoop(this.render);然后自己去控制render调用,这样看似能解决我们的问题,但是如果项目中有自己写的shader,且自己的shader有法线方向扩散的特效等类似功能,这些功能又会失效,并非一个合理的解决办法 【最终解决方案:核心代码】 1、修改a-sence.js中render() ``` // 马少杰兼容添加---注意:此方案的引入致使renderer的onBeforeRender和onAfterRender这两个钩子函数已不可再使用,因为bloomComposer和finalComposer的render()都会默认调用renderer.render(),从而引发递归,造成栈溢出 if (renderer.bloomComposer && renderer.finalComposer) { // 复制需要晕光的纹理涂层 this.object3D.traverse(this.darkenNonBloomed); renderer.bloomComposer.render(); this.object3D.traverse(this.restoreMaterial); // 晕光纹理和原图合并渲染 renderer.finalComposer.render(); } else { renderer.render(this.object3D, this.camera);...
[https://github.com/CompVis/stable-diffusion/issues/309#issue-1381207452](url)
> 语音输入需要 `https` 支持吧 基于web speech api实现语音识别技术的验证信息: **_这个方案最大的好处,免费_** 我验证了,不光需要https支持,还需要梯子: 语音识别的验证结果:1、爬梯子到美国非常好用,且很稳定,但是没有标点符号;2、爬梯子到香港,翻译出来结果会是错的;3、不爬梯子的情况下,压根不能用 语音生成的验证结果:1、爬梯子到美国或香港都能正常使用;2、手机端chrome浏览器下可以使用;不爬梯子不可用! 结论:目前来看,不推荐合并使用。不得不说,我大中华抄作业能力强,但是没有注入灵魂的硬技术。 后续:我对接了科大讯飞的语音识别,目前正在调优【收费的】
> > > > @Chanzhaoyu 我是V站的,刚特别关注你,我也在研究语音输入和语音输出 @JetsomMa 持续关注中,科大讯飞的也可以,如果有语音输出就更好了 语音识别已经有了,我对接了腾讯云的语音识别,现在还没能解决app key安全问题,体验地址:https://chat.mashaojie.cn/ 后续可以以脚本引入+密钥激活的方式接入 已有思路,等有时间了完善
> 为什么不直接使用OpenAI的 Whisper AI呢? 只是为了能通过websocket实现实时语音识别,而不是录一段录音发送上去让他识别
lookat this: https://www.mashaojie.cn/blog/2023/03/07/MAC%20M1%E5%A6%82%E4%BD%95%E5%AE%89%E8%A3%85%E7%8E%AF%E5%A2%83%E5%90%AF%E5%8A%A8gpt2%E6%A8%A1%E5%9E%8B/