티스토리 뷰
활성화 함수
- relu, sigmoid, linear등
- 기본적으로 y = wx + b를 사용해 노드 수를 계속 곱해 주다보면 값이 너무 커지게 된다.
- 시그모이드는 0-1사이의 값으로 값을 한정시켜준다.
- 노드와 레이어사이에서 값이 폭발하지 않게 값을 한정시켜준다.
- 활성화 함수는 값을 고정시켜서 다음으로 넘어갈때 터지지 않게 해주는 역할을 한다.
- 모든 레이어에 존재한다.
- model.add(Dense(100, activation = ' linear' ) ⇒ activation 의 default
'Artificial Intelligence > Deep Learning' 카테고리의 다른 글
[DL] soft max, 다중분류모델 (0) | 2022.07.04 |
---|---|
[DL] validation/metrics/val_loss/early stopping/history (0) | 2022.07.02 |
[DL] DNN(Deep Neural Net) 전체적인 Flow (0) | 2022.06.29 |
[DL] R2 예제_diabets (0) | 2022.06.23 |
[DL] R2 예제_california (1) | 2022.06.23 |