no image
SKHy DRAM 내부 회로의 파형 예측(Pytorch)_회귀분석 실습
이전 실습과 동일 코드 MSE LOSS gt라고 불리는 실제값과 pred라고 불리는 예측값을 받아서 mean squared (제곱) error 계산 릿지 선형회귀 시각화 단일회귀모형과 유사함 다중 퍼셉트론 (multi layer perceptron, MLP) 회귀 모델 데이터 변형 여태까지의 실습에서는 한 시점의 입력값만을 사용하여 출력 전압을 예측하도록 모델을 훈련하였습니다. 그러나, 출력값을 올바르게 예측하기 위해서는 한 시점 뿐만이 아니라, 그 이전 시점들에서의 입력 전압값들이 중요할 수 있습니다. 우리가 다루고 있는 전압 파형 데이터는 시계열 데이터이기 때문입니다. 모델의 성능을 향상시키기 위하여 지금부터는 입력값으로 여러 시점의 입력 전압을 주도록 데이터를 수정해보겠습니다. 원래는 1이었던 크기..
2023.08.19
no image
SKHy DRAM 내부 회로의 파형 예측(Pytorch)_회귀분석
회귀분석 : 잔차를 최소화하도록 분석이 됨 잔차 (residual error) X :베타 ) X=모델, 베타=회귀모델을 정의해주는 변수 비선형 회귀모델 학습률에서 좋은 러닝메이트를 함께 찾는것도 하이퍼파라미터에 들어감 ( practical 한 이슈 좋은 점에 도달하는데 학습하는 시간이 많이 걸림 경사하강법에 의해 loss가 가장 작아졌을때
2023.08.19
no image
SKHy DRAM 내부 회로의 파형 예측(Pytorch)_실습
이전 게시물과 동일 딕셔너리 만들어주기 정규화한 후에 머신러닝에 적용해야지 optimal한 학습을 할 수 있음
2023.08.19

이전 실습과 동일 코드


MSE LOSS 

gt라고 불리는 실제값과 pred라고 불리는 예측값을 받아서 

mean squared (제곱) error 계산

 

test데이터로 실제측정값 그래프

 

선형 회귀 에측값 그래프


릿지 선형회귀

시각화 단일회귀모형과 유사함

 


 다중 퍼셉트론 (multi layer perceptron, MLP) 회귀 모델

모델 학습하는데 시간이 다소 걸림


데이터 변형

여태까지의 실습에서는 한 시점의 입력값만을 사용하여 출력 전압을 예측하도록 모델을 훈련하였습니다. 그러나, 출력값을 올바르게 예측하기 위해서는 한 시점 뿐만이 아니라, 그 이전 시점들에서의 입력 전압값들이 중요할 수 있습니다. 우리가 다루고 있는 전압 파형 데이터는 시계열 데이터이기 때문입니다.
모델의 성능을 향상시키기 위하여 지금부터는 입력값으로 여러 시점의 입력 전압을 주도록 데이터를 수정해보겠습니다.

원래는 1이었던 크기가 50으로 변경됨 


이제 시계열로 데이터를 만들어놨으니 이전에 했던 3가지 모델에 다시한번 적용해보자

1. 최소 제곱 선형 회귀 (least square linear regression) 모델은 가장 단순한 선형 회귀 모델입니다. 이 모델을 생성해보겠습니다.

시계열 고려안했을 때 loss가 4.7정도 나옴

linear regression 모델 자체의 power가 약해서 예측값그림이 그리 좋지않음

 

2. Ridge 선형 회귀 모델은 최소제곱 선형회귀 모델을 개량한 모델입니다. 

마찬가지로 오차가 확 줄어듦
시각화 결과

3. 다음으로는 다중 퍼셉트론 (multi layer perceptron, MLP) 회귀 모델을 활용해보겠습니다. 가장 단순한 형태의 뉴럴넷 모델이며, 앞선 회귀 모델과 다르게 비선형적 모델링이 가능합니다

현저히 줄어들었네용

훨씬 더 그럴듯한 모델

하지만 MLP는 가장 간단한 구조의 비선형 모델링

사실상 정확히 시계열을 사용한다고 할 수 없음

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

회귀분석 : 잔차를 최소화하도록 분석이 됨

잔차 (residual error)

X :베타 ) X=모델, 베타=회귀모델을 정의해주는 변수



비선형 회귀모델

계속 갱신하면서 forward pass 학습

 

 

 

학습률에서 좋은 러닝메이트를 함께 찾는것도 하이퍼파라미터에 들어감 ( practical 한 이슈

좋은 점에 도달하는데 학습하는 시간이 많이 걸림

경사하강법에 의해 loss가 가장 작아졌을때 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

이전 게시물과 동일




딕셔너리 만들어주기

 



정규화한 후에 머신러닝에 적용해야지 optimal한 학습을 할 수 있음