개요

머신러닝 기본 개념 

중요 !! cost function

실제값 - 예측값 = error, loss, cost

MSE = ( 실제값 - 예측값 )^2 / 데이터 개수 N -> cost function

cost가 낮을 수록 회귀 예측을 잘한것임!

 

조금씩 미분하면서 내려옴


머신러닝 기술 원리

 

컬럼의 특징 : feature

각 로우를 data

 

confusion matrix : 모델의 대략적인 성능확인과 모델의 성능을 오차행렬을 기반으로 수치로 표현 

예측값을 먼저보고, 그 다음 실제값과 비교

성능 지표



주변에 있는 것이 연두색이 더 많아 -> 검정색을 연두색으로 예측함

하이퍼 파라미터 : 사람이 모델에 직접 넣어주는 값

파라미터 : 모델이 예측한 결과값

decision tree

 

정리


2교시

딥러닝의 기본 개념

딥러닝의 목표 : 모델의 입력값을 넣었을 때의 출력값이 최대한 정답과 일치하게 하는 것

입력에 들어가는 input값에 가중치를 각각 다르게해서 넣는다

그 후 합하고

활성화 함수를 통해 예측한다. (마치 like 로지스틱회귀)

활성화 함수 종류들 매우 중요!!

softmax 에서 나온 값들이 100 중 얼마나 차지하는지 각각 퍼센트 비율로 출력


LOSS FUNCTION : 신경망의 목적 함수로 출력값(예측값)과 정답(실제값)의 차이를 계산 (직선마다 각 cost가 얼마인지 계산해줌)

함수식 말고 이름을 외우자 !

gradient descent : 단점 -> 시간이 오래 걸린다

stop cast gradient descent -> 부분부분 끊어서 판단하고 가중치를 업데이트한다


딥러닝 주요 알고리즘

sequential 모델을 하나 만들고, Dense라고 모델에 추가한다. 

hidden layer1에 unit이 4개이다. 그리고 input은 3개이다. 중간에 activation은 다 relu를 쓰면 된다. 

output layer도 hidden layer이지만 맨 끝에 있기 때문에 output later라고 부르겠다. 

drop out 함수는 train 시에 과적합 방지를 위해 unit을 몇개 삭제해 주는 기능이다.

시그모이드는 로지스틱(이진분류 = binary crosssection)

에포크 : 내가 학습을 40번 시키겠다.

배치 사이즈 : train dataset을 10개 단위로 자르겠다.