PyTorch警告关于在前向包含多个autograd节点时使用非完整后向钩子
我对 pytorch 和构建神经网络比较陌生。
最近升级后,在运行我的 pytorch 循环时,我现在收到警告“ using a non-full backward hook when the forward contains multiple autograd Nodes”。
培训仍在运行并完成,但我不确定应该将register_full_backward_hook函数放在哪里。
我曾尝试将其添加到我的神经网络中的每一层,但这会导致有关使用不同钩子的更多错误。
任何人都可以请指教吗?
THE END
二维码