我是 Caffe 的新手,现在我需要修改卷积神经网络中 ReLU 层的阈值。我现在用来修改阈值的方法是编辑 caffe/src/caffe/layers/relu_layer.cpp 中的 C++ 源代码,然后重新编译它。但是,这会在每次调用 ReLU 时将阈值更改为指定值。有没有办法在网络中的每个 ReLU 层中使用不同的值作为阈值?顺便说一句,我正在使用 pycaffe 界面,但找不到这样的方法。

最后,抱歉我的英文不好,如果有不清楚的地方,请告诉我,我会尽量详细描述。

最佳答案

如果我理解正确,你的“带阈值的 ReLU”基本上是

f(x) = x-threshold if x>threshold, 0 otherwise

您可以通过添加一个 "Bias" 层来轻松实现它,该层在常规 threshold 层之前从输入中减去 "ReLU"

关于neural-network - 在 Caffe 框架中修改 ReLU 中的阈值,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/40562558/

10-12 17:08