본문 바로가기

Model

(21)
인공신경망 신경망의 예 2층 신경망의 예는 다음과 같습니다. 기본적으로 입력층(0층), 은닉층(1층), 출력층(2층)으로 이루어져 있습니다. 가중치를 갖는 층은 두 개 뿐이라서 2층 신경망이라고 합니다. 다만 문헌에 따라 3층 신경망이라 하는 경우도 있습니다. Perceptron Backpropagation Activation Function
Naive Bayes Bayes Theorem 사전확률과 우도확률을 알 때 사후확률을 계산하는 방법. P(A|B)를 알고 있을 때, 관계가 정반대인 P(B|A)를 계산하기 위한 방법 결과를 관측한 뒤 원인을 추론할 수 있는 방법. Bayes Theorem의 통시적 해석 데이터 D의 관점에서 보았을 때 가설 H의 확률을 수정해준다. 새로운 데이터가 들어올 때마가 가설에 대한 확률이 달라진다. P(A|B): 사후 확률. 데이터를 확인한 이후 가설의 확률 P(A): 사전 확률. 데이터를 보기 전 가설의 확률 P(B|A): likelihood. 데이터가 가설에 포함될 확률 P(B): 한정 상수. 어떤 가설에든 포함되는 데이터의 비율. 예: 검사에서 양성이 나왔을 때 X라는 병에 걸렸을 확률 A = 병에 걸렸을 사건 B = 검사에서 ..
최대 우도 추정 Likelihood Probability (확률) 주어진 확률분포가 있을 때 해당 확률분포가 고정되어 있을 때, 관측에 대한 확률을 구한다. 고정된 distribution 함수 있을 때 그 함수 아래의 공간 크기 확률 = P(관측값 X | 확률분포 D) Likelihood (가능도, 우도) 주어진 관측값이 있을 때, 이것이 어떤 확률분포 D에서 왔을 지에 대한 확률 확률분포 함수에서 특정 관측값에 해당하는 값. 확률분포함수(PDF)의 y값. 가능도 = L(확률분포 D|관측값 X) probability와 likelihood의 비교 셀 수 있는 사건(이산사건): probability = likelihood 연속 사건: 특정 값에 대한 probaility는 0. likelihood는 PDF 함수 값. refe..
확률론 확률변수 확률변수 (Random Variable) 표곤공간의 각 원소에 하나의 실수를 대응시킬 때의 실수 확률변수의 종류 이산확률변수(Discrete Random Variable): 확률변수 X의 집합을 셀 수 있는 경우 P(X=x) 값을 표현할 수 있다. 예: 주사위의 눈이 6일 확률을 구할 수 있다. 연속확률변수(Continuous Random Variable): 확률변수 X의 집합을 셀 수 없는 경우 P(X=x) 값을 표현할 수 없다. 예: 컵에 담긴 물이 정확히 1L일 확률은 0이다. (단, 물의 양이 0.999~1.001인 확률과 같이, 범위를 정하면 확률을 구할 수 있다.) reference https://blog.naver.com/mykepzzang/220835327089 확률질량함수와 확률..
개념 딥러닝의 난관 3가지 충분한 양의 데이터 고성능 하드웨어(GPU) 딥러닝으로 구현한 알고리즘 및 튜닝 노하우 training하는 데에는 시간이 오래 걸리지만, 그 결과물은 크기가 작다. 또한 predict에도 많은 시간이 걸리지 않기 때문에 사람들은 transfer learning(누군가가 먼저 학습시켜 만든 알고리즘)을 사용한다. 딥러닝 기본 개념 Underfitting : 학습이 덜 되는 경우 -> activation func Slow : 학습이 너무 느린 경우 -> GD, SGD, Adam Overfitting : 융퉁성이 너무 없을 경우 -> dropout 의 문제를 해결 기타 Awesome / 참고 자료 링크 Awesome은 사전적으로 엄청난, 굉장한이라는 의미를 가지고 있는데 Github에서는..