Model (21) 썸네일형 리스트형 CNN만들기 폭풍수정예정... 목표 CNN으로 간단한 학습 모델을 만들어 training set, test set 을 통해 evaluate해본다. 적은 data set을 부풀려 overfitting을 만든다. 간단한 이미지(circle, rec, tri)를 학습한다. 복잡한 이미지를 학습한다. : 컴퓨터가 견딜까? 동영상 베이스로 학습한다. : 목표 ㅋㅅㅋ 문서를 학습한다. 환경설정 사용 언어 : python3.6.1, tensorflow(keras 필요) Tutorial 1. 파일 구성 app.py dataset - test_set - circle - rectangular - triangle - training_set - circle - rectangular - triangle 2. 음 1. 데이터 생성 # 랜덤시.. CNN(Convolution Neural Network)이란? CNN(Convolution Neural Network)는 Convolution(합성곱)을 이용해 feature를 추출하는 Layer입니다. Convolution 특성상 근처의 데이터끼리만 묶어서 처리한다는 특징이 있습니다. 1. 합성곱 계층 데이터의 형상을 유지하여 계층의 특징을 유지할 수 있습니다. 이미지의 경우 3차원(width, height, color) 형상으로 되어 있으므로, 3차원을 입력받아 3차원을 출력합니다. 합성곱 계층의 입출력 데이터를 특징 맵(feature map)이라고 합니다. 입력 데이터는 입력 특징 맵(input feature map), 출력 데이터는 출력 특징 맵(output feature map)이라고 부릅니다. (1) Convolution(합성곱) Convolution 연.. RNN/LSTM/GRU 기존의 인공신경망은 순차적인 정보가 담긴 데이터를 처리하는 것에 어려움이 있습니다. 1. RNN(Recurrent Neural Network) (1) RNN이란? 시간 순서대로 들어오는 Seuqence data를 모델링하기 위한 Network입니다. 다른 Neural Network와는 달리, 지금까지 입력된 데이터를 요약한 hidden state를 가지고 있습니다. 입력이 들어올 때마다 hidden state를 수정하는 식으로 동작하므로, 입력을 모두 처리하고 난 네트워크의 hidden state는 sequence 전체를 요약하는 정보가 됩니다. 빨간색 노드 : 입력 노란색 노드 : hidden state(기억) 파란색 노드 : 출력 - 첫번째 입력이 들어오면 첫번째 hidden state가 만들어짐 -.. DNN (Deep Neural Network, 심층 신경망) Fully-Connected Neural Network 입력을 받는 Input layer, 입력 값을 변형시키는 Hidden Layer, 값을 출력하는 Output Layer로 구성되어 있는 인공 신경망입니다.. layer 내부의 뉴런끼리는 서로 연결이 되어 있지 않고, 앞/뒤 layer의 모든 뉴런 사이에만 연결되어 있습니다. Fully-Connected Neural Network, Feedforward Neural Network(FNN) 등으로 부르기도 한다. Layer의 구조 하나의 층은 여러 여러 값을 받아 한 값을 출력하는 Perceptron으로 구성되어 있습니다. Input Layer : 외부로부터 입력값을 받는 Layer. 우리가 이미 가지고 있는 데이터를 의미한다. Hidden Layer .. Layer DNN RNN/LSTM/GRU CNN CNN 만들기 CNN 모델 [[U-Net]] 데이터별 Layer 선택 snapshot성 데이터 : 이미지, 영상, 바둑 -> CNN sequence성 데이터 : 음성, 언어, 주식 가격, 맥락 -> RNN, LSTM Brick으로 보는 딥러닝 Activation Function (활성화 함수) Activation Function이란, 신경망의 출력값을 비선형적으로 변형시키는 역할을 합니다. 신경망의 출력이 선형(Linear)이라면 여러 층으로 쌓은 신경망을 단층 신경망으로 줄일 수 있습니다. 신경망 하나를 행렬로 볼 수 있는데, 여러 개의 행렬을 곱하면 하나의 행렬로 나타낼 수 있기 때문입니다. Activation Function이 적용된 수식은 아래와 같습니다.. input값 x와 weight W를 곱하고 bias b를 더한뒤 씌워줍니다. σ(Wx+b) 활성화 함수로 선형 함수를 사용하면 안 되는 이유 왜 선형 함수를 활성화 함수로 사용하면 안되는 걸까요? 이유는 다음과 같습니다. 우선, 여러 층으로 된 모델을 하나의 층만으로도 나타낼 수 있기 때문입니다. Activation.. 딥러닝 학습의 꽃, Backpropagation(역전파) 오늘은 Backpropagation에 대해서 알아보도록 하겠습니다. Backpropagation은 딥러닝에서 학습이 되는 과정을 이해하기에 꼭 필수적인 요소입니다. 우선, 계산 그래프와 연쇄 법칙에 대해 알아보겠습니다. 딥러닝 모델의 학습은 활성화 함수 값을 최소화하도록 학습합니다. 이는 순전파와 역전파를 반복하여 학습합니다. 순전파(feed forward): 입력값을 넣어 출력값을 계산하고, Loss function의 값을 구합니다. 역전파(Bacopropagation): 딥러닝 모델의 파라미터마다 편미분을 해서 Loss function 값이 최소화가 되도록 조절합니다. Loss function에서 각각의 파라미터(가중치)마다 편미분을 하면 파라미터값을 얼마나 바꿔야 loss function이 감소하는.. 뉴럴네트워크의 기본, 퍼셉트론(perceptron)에 대해 알아보자 안녕하세요, 오늘은 퍼셉트론에 대해서 알아보도록 하겠습니다. 퍼셉트론은 여러 개의 input 신호를 받아, 하나의 output 신호를 출력하는 알고리즘입니다. 이는 인공 신경망, 즉 Neural Network을 구성하는 가장 간단한 단위라고 할 수 있습니다. 아래 그림 [1-1]을 보면, 퍼셉트론은 다수의 신호를 받아 하나의 신호를 출력할 수 있습니다. 입력으로 받은 신호에 각각 가중치를 곱한 뒤, 임계값을 초과하면 1을, 아니면 0을 출력합니다. 퍼셉트론은 입력으로 받은 신호에 각각 가중치를 곱한 값이, 임계값(θ)를 초과하면 1, 임계값 이하이면 0을 출력합니다. 따라서 이는 간단한 형태의 이진 분류기(Binary Classificator)로 볼 수 있습니다. 가중치($w_1, w_2, .. 이전 1 2 3 다음 목록 더보기