티스토리 뷰
Artificial Intelligence/Deep Learning
[DL] LSTM의 return_sequences 사용하는 이유는?
inee0727 2022. 7. 13. 19:25LSTM은 3차원의 형태지만 output 될 때, 2차원으로 변형된다. 아래 예시를 통해 확인 할 수 있다.
model= Sequential()
model.add(LSTM(10,input_shape=(3,1)))
model.add(Dense(1))
그렇다면, LSTM 레이어를 여러개 쌓아올리려면 어떻게 해야할까?
return_sequence=True 옵션을 사용하면 된다. 이 옵션을 사용한다면 RNN의 output이 2차원에서 3차원으로 변형되며,
LSTM 레이어를 여러개 쌓아올릴 수 있다. 아래 예시를 통해 확인해보자.
model= Sequential()
model.add(LSTM(10, return_sequences=True, input_shape=(3,1)))
model.add(LSTM(5))
model.add(Dense(1))
model.summary()
'Artificial Intelligence > Deep Learning' 카테고리의 다른 글
[DL] bidirectional RNN 등장배경과 파라미터 카운팅 (0) | 2022.07.14 |
---|---|
[DL] RNN / LSTM / GRU (0) | 2022.07.13 |
[DL] DNN/RNN/CNN 차원 비교 테이블 (0) | 2022.07.13 |
[DL] RNN 파라미터 개수 카운팅 (0) | 2022.07.13 |
[DL] CNN 각 Layer별 역할 (Convolution Layer / Pooling / Flatten) (1) | 2022.07.10 |