LSTM/RNN weight sharing/communication among units (parameter) in Keras?

原文标题LSTM/RNN weight sharing/communication among units (parameter) in Keras?

RNN/LSTM 层内的单元之间是否发生了任何类型的通信/共享?

下图是从接受的答案中裁剪出来的,如何解释清楚Keras中units参数的含义?这里作者连接了RNN/LSTM层中的各个单元(标记为红色)。

我知道,在 RNN/LSTM 中,参数共享发生在时间步长上,但它发生在单元之间吗?

防爆代码

from keras.models import Sequential
from keras.layers import Dense, Dropout, Activation
from keras.layers import Embedding
from keras.layers import LSTM
model = Sequential()
model.add(LSTM(4, input_dim=3))
model.summary()

enter image description here

我遇到了这个讲座,教授说得很清楚,在同一层(Keras RNN/LSTM 中的单元)之间没有通信/共享/其他东西。

我认为通信/共享不会发生在同一层的单元之间。有人可以澄清/另想吗?

原文链接:https://stackoverflow.com//questions/71496992/lstm-rnn-weight-sharing-communication-among-units-parameter-in-keras

回复

我来回复
  • Yoan B. M.Sc的头像
    Yoan B. M.Sc 评论

    我认为通信/共享不会发生在同一层的单元之间。有人可以澄清/另想吗?

    标准 LSTM 层中的单元之间没有通信(至少在我知道的每个标准实现中)。与密集层中的单元之间没有任何连接的方式相同。

    我并不是说这不可行或不好,但这肯定没有描述标准的 RNN/LSTM 单元。

    2年前 0条评论