티스토리 뷰

활성화 함수

- relu, sigmoid, linear등
- 기본적으로 y = wx + b를 사용해 노드 수를 계속 곱해 주다보면 값이 너무 커지게 된다.
- 시그모이드는 0-1사이의 값으로 값을 한정시켜준다.
- 노드와 레이어사이에서 값이 폭발하지 않게 값을 한정시켜준다.
- 활성화 함수는 값을 고정시켜서 다음으로 넘어갈때 터지지 않게 해주는 역할을 한다.
- 모든 레이어에 존재한다.
- model.add(Dense(100, activation = ' linear' ) ⇒ activation 의 default

공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG
more
«   2025/05   »
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
글 보관함