본문 바로가기

Backpropagation

(3)
경사 하강법을 이용한 신경망 학습 1. 기존 머신러닝과 딥러닝의 특징 사람이 생각한 알고리즘을 이용한 분류 사람이 생각한 특징(SIFT, HOG 등)을 추출하고, 기계학습(SVM, KNN 등)으로 분류 신경망을 통해 분류. 데이터만 주어지면 특징 추출, 분류 모두 자동으로 진행된다. 2. 손실 함수 신경망 성능의 나쁨을 나타내는 지표로, 평균 제곱 오차나 교차 엔트로피 오차 등을 사용합니다. 신경망은 미분을 이용해서 이 함수의 값을 줄이는 것을 목표로 학습합니다. 평균 제곱 오차(Mean Squared Error, MSE) y_k는 신경망의 출력, t_k는 One-Hot Encoding된 정답 레이블, k는 데이터의 차원 수. 교차 엔트로피 오차(Cross Entropy Error, CEE) t_k 값은 정답 레이블에선 1, 나머지는 0..
딥러닝 학습의 꽃, Backpropagation(역전파) 오늘은 Backpropagation에 대해서 알아보도록 하겠습니다. Backpropagation은 딥러닝에서 학습이 되는 과정을 이해하기에 꼭 필수적인 요소입니다. 우선, 계산 그래프와 연쇄 법칙에 대해 알아보겠습니다. 딥러닝 모델의 학습은 활성화 함수 값을 최소화하도록 학습합니다. 이는 순전파와 역전파를 반복하여 학습합니다. 순전파(feed forward): 입력값을 넣어 출력값을 계산하고, Loss function의 값을 구합니다. 역전파(Bacopropagation): 딥러닝 모델의 파라미터마다 편미분을 해서 Loss function 값이 최소화가 되도록 조절합니다. Loss function에서 각각의 파라미터(가중치)마다 편미분을 하면 파라미터값을 얼마나 바꿔야 loss function이 감소하는..
인공신경망 신경망의 예 2층 신경망의 예는 다음과 같습니다. 기본적으로 입력층(0층), 은닉층(1층), 출력층(2층)으로 이루어져 있습니다. 가중치를 갖는 층은 두 개 뿐이라서 2층 신경망이라고 합니다. 다만 문헌에 따라 3층 신경망이라 하는 경우도 있습니다. Perceptron Backpropagation Activation Function