본문 바로가기

Model/인공신경망

(5)
경사 하강법을 이용한 신경망 학습 1. 기존 머신러닝과 딥러닝의 특징 사람이 생각한 알고리즘을 이용한 분류 사람이 생각한 특징(SIFT, HOG 등)을 추출하고, 기계학습(SVM, KNN 등)으로 분류 신경망을 통해 분류. 데이터만 주어지면 특징 추출, 분류 모두 자동으로 진행된다. 2. 손실 함수 신경망 성능의 나쁨을 나타내는 지표로, 평균 제곱 오차나 교차 엔트로피 오차 등을 사용합니다. 신경망은 미분을 이용해서 이 함수의 값을 줄이는 것을 목표로 학습합니다. 평균 제곱 오차(Mean Squared Error, MSE) y_k는 신경망의 출력, t_k는 One-Hot Encoding된 정답 레이블, k는 데이터의 차원 수. 교차 엔트로피 오차(Cross Entropy Error, CEE) t_k 값은 정답 레이블에선 1, 나머지는 0..
Activation Function (활성화 함수) Activation Function이란, 신경망의 출력값을 비선형적으로 변형시키는 역할을 합니다. 신경망의 출력이 선형(Linear)이라면 여러 층으로 쌓은 신경망을 단층 신경망으로 줄일 수 있습니다. 신경망 하나를 행렬로 볼 수 있는데, 여러 개의 행렬을 곱하면 하나의 행렬로 나타낼 수 있기 때문입니다. Activation Function이 적용된 수식은 아래와 같습니다.. input값 x와 weight W를 곱하고 bias b를 더한뒤 씌워줍니다. $\sigma(Wx +b) $ 활성화 함수로 선형 함수를 사용하면 안 되는 이유 왜 선형 함수를 활성화 함수로 사용하면 안되는 걸까요? 이유는 다음과 같습니다. 우선, 여러 층으로 된 모델을 하나의 층만으로도 나타낼 수 있기 때문입니다. Activation..
딥러닝 학습의 꽃, Backpropagation(역전파) 오늘은 Backpropagation에 대해서 알아보도록 하겠습니다. Backpropagation은 딥러닝에서 학습이 되는 과정을 이해하기에 꼭 필수적인 요소입니다. 우선, 계산 그래프와 연쇄 법칙에 대해 알아보겠습니다. 딥러닝 모델의 학습은 활성화 함수 값을 최소화하도록 학습합니다. 이는 순전파와 역전파를 반복하여 학습합니다. 순전파(feed forward): 입력값을 넣어 출력값을 계산하고, Loss function의 값을 구합니다. 역전파(Bacopropagation): 딥러닝 모델의 파라미터마다 편미분을 해서 Loss function 값이 최소화가 되도록 조절합니다. Loss function에서 각각의 파라미터(가중치)마다 편미분을 하면 파라미터값을 얼마나 바꿔야 loss function이 감소하는..
뉴럴네트워크의 기본, 퍼셉트론(perceptron)에 대해 알아보자 안녕하세요, 오늘은 퍼셉트론에 대해서 알아보도록 하겠습니다. 퍼셉트론은 여러 개의 input 신호를 받아, 하나의 output 신호를 출력하는 알고리즘입니다. 이는 인공 신경망, 즉 Neural Network을 구성하는 가장 간단한 단위라고 할 수 있습니다. 아래 그림 [1-1]을 보면, 퍼셉트론은 다수의 신호를 받아 하나의 신호를 출력할 수 있습니다. 입력으로 받은 신호에 각각 가중치를 곱한 뒤, 임계값을 초과하면 1을, 아니면 0을 출력합니다. 퍼셉트론은 입력으로 받은 신호에 각각 가중치를 곱한 값이, 임계값($\theta$)를 초과하면 1, 임계값 이하이면 0을 출력합니다. 따라서 이는 간단한 형태의 이진 분류기(Binary Classificator)로 볼 수 있습니다. 가중치($w_1, w_2, ..
인공신경망 신경망의 예 2층 신경망의 예는 다음과 같습니다. 기본적으로 입력층(0층), 은닉층(1층), 출력층(2층)으로 이루어져 있습니다. 가중치를 갖는 층은 두 개 뿐이라서 2층 신경망이라고 합니다. 다만 문헌에 따라 3층 신경망이라 하는 경우도 있습니다. Perceptron Backpropagation Activation Function