Yinggang Wang
Yinggang Wang
> oneflow版本从0.7->0.8时,对global tensor操作,Device2Device Memcpy耗时会大量增加 原因是支持所有 sbp 输入的 slice kernel 实现后,在 kernel 部分对最后一维切分的处理不够好, 后面在 https://github.com/Oneflow-Inc/oneflow/pull/8589 中已经优化,可以使用 nightly 版本再测一下。
We support higher order gradient for many operators after 0.7.0 the step by step. You can check out them in https://github.com/Oneflow-Inc/oneflow/tree/master/oneflow/core/autograd/higher_order_gradient_funcs . If you need higher order gradient for some...
这个我和智敏来对齐 @small1945
https://staging.oneflow.info/docs/Oneflow-Inc/oneflow/pr/8979/generated/oneflow.linalg.cross.html 这里的文档生成好像有点问题,可以看看为啥
问题是 scalar tensor 的 scalar setitem/getitem 没有支持,我来做一下 ```python import oneflow as flow t = flow.tensor(3.0320) b = flow.tensor(False) print(t[b]) t[b] = 0 print(t) ```
> 建议为修复的问题增加一个针对性的测试用例 done
这里应该是 unsqueeze 的 stride 没有处理好,后面可以调一下
可以先手动把 scalar tensor 转成 scalar,后续我在 indexing 中支持一下 ```python import oneflow as flow a = flow.Tensor(133, 1, 15) b = flow.Tensor(133, 2, 1) idx = 0 pos = flow.tensor(0).item() a[:, idx,...
```python import oneflow as flow x = flow.ones(2, 3) class MyGraph(flow.nn.Graph): def __init__(self): super().__init__() def build(self, idx): print(f"{idx.is_lazy=}") print(f"{x.is_lazy=}") return x[idx] graph = MyGraph() idx = flow.tensor(0, dtype=flow.int32) out =...
test_comb2d.py 出错,log 打印比较乱,本地没有复现,看像是网络问题,清缓存再跑一下看看