개요
머신러닝 기본 개념
중요 !! cost function
실제값 - 예측값 = error, loss, cost
MSE = ( 실제값 - 예측값 )^2 / 데이터 개수 N -> cost function
cost가 낮을 수록 회귀 예측을 잘한것임!
머신러닝 기술 원리
컬럼의 특징 : feature
각 로우를 data
confusion matrix : 모델의 대략적인 성능확인과 모델의 성능을 오차행렬을 기반으로 수치로 표현
성능 지표
하이퍼 파라미터 : 사람이 모델에 직접 넣어주는 값
파라미터 : 모델이 예측한 결과값
정리
2교시
딥러닝의 기본 개념
딥러닝의 목표 : 모델의 입력값을 넣었을 때의 출력값이 최대한 정답과 일치하게 하는 것
입력에 들어가는 input값에 가중치를 각각 다르게해서 넣는다
그 후 합하고
활성화 함수를 통해 예측한다. (마치 like 로지스틱회귀)
softmax 에서 나온 값들이 100 중 얼마나 차지하는지 각각 퍼센트 비율로 출력
LOSS FUNCTION : 신경망의 목적 함수로 출력값(예측값)과 정답(실제값)의 차이를 계산 (직선마다 각 cost가 얼마인지 계산해줌)
함수식 말고 이름을 외우자 !
gradient descent : 단점 -> 시간이 오래 걸린다
stop cast gradient descent -> 부분부분 끊어서 판단하고 가중치를 업데이트한다
딥러닝 주요 알고리즘
sequential 모델을 하나 만들고, Dense라고 모델에 추가한다.
hidden layer1에 unit이 4개이다. 그리고 input은 3개이다. 중간에 activation은 다 relu를 쓰면 된다.
output layer도 hidden layer이지만 맨 끝에 있기 때문에 output later라고 부르겠다.
drop out 함수는 train 시에 과적합 방지를 위해 unit을 몇개 삭제해 주는 기능이다.
시그모이드는 로지스틱(이진분류 = binary crosssection)
에포크 : 내가 학습을 40번 시키겠다.
배치 사이즈 : train dataset을 10개 단위로 자르겠다.
'머신러닝 기초 > AICE Associate과정' 카테고리의 다른 글
AICE 유튜브 특강 3교시 실습 (0) | 2024.01.07 |
---|---|
실습 프로젝트 4개 (0) | 2024.01.07 |
[4주차] 데이터 전처리_1부 (탐색, 결측치 처리) (0) | 2023.12.10 |
[3주차] dataframe 파헤치기 (1) | 2023.12.03 |
[2주차] Indexing, Slicing, List, Tuple, Dictionary (1) | 2023.11.19 |