sigmoid (1) 썸네일형 리스트형 Activation Function (활성화 함수) Activation Function이란, 신경망의 출력값을 비선형적으로 변형시키는 역할을 합니다. 신경망의 출력이 선형(Linear)이라면 여러 층으로 쌓은 신경망을 단층 신경망으로 줄일 수 있습니다. 신경망 하나를 행렬로 볼 수 있는데, 여러 개의 행렬을 곱하면 하나의 행렬로 나타낼 수 있기 때문입니다. Activation Function이 적용된 수식은 아래와 같습니다.. input값 x와 weight W를 곱하고 bias b를 더한뒤 씌워줍니다. $\sigma(Wx +b) $ 활성화 함수로 선형 함수를 사용하면 안 되는 이유 왜 선형 함수를 활성화 함수로 사용하면 안되는 걸까요? 이유는 다음과 같습니다. 우선, 여러 층으로 된 모델을 하나의 층만으로도 나타낼 수 있기 때문입니다. Activation.. 이전 1 다음