개념
- 입력된 데이터의 가중 합을 출력 신호로 변환하는 함수
- 노드에 입력으로 들어오는 값이 어떤 임계치를 넘어가면 활성화가 되고, 넘어가지 않으면 비활성화
- 활성화함수를 사용하면 입력값에 대한 출력값을 비선형적으로 만들 수 있다
- 만약, ReLU와 같은 활성화 함수가 없다면 Dense층은 선형적인 연산(아핀변환)만을 할 수 있다.
- 선형 함수만을 사용하면 신경망의 층을 깊게 쌓는 것이 무의미해진다.
- 즉, 활성화 함수는 딥러닝 모델의 표현력을 위해 꼭 필요하다.
종류
반응형
'머신러닝_딥러닝 > 머신러닝 & 딥러닝' 카테고리의 다른 글
Ground Truth ≠ Label (0) | 2021.09.13 |
---|---|
(기초지식) 신경망(NN, Neural Network) & 퍼셉트론 (0) | 2021.01.15 |
(기초지식) Dropout (0) | 2021.01.15 |
(기초지식) Regularization (0) | 2021.01.15 |
(기초지식) 오버피팅(과적합) & 언더피팅(과소적합) (0) | 2021.01.15 |