하지만 시계열 데이터는 시간적 상관관계를 가짐 : 나이에 따라 평균키가 달라지므로 시간적 상관관계가 있다.
A라는데서 화살표가 나와서 다시 자기자신으로 들어감
RNN은 hidden state가 자기자신에 숨어있다. 입력된 데이터의 시계열 정보를 모델링할 수 있음
시간적인 축으로 펴보았더니 (unfolding) 입력 (X0~Xt )
예를 들어 h2를 만들기위해 A도 활용, X2도 활용 -> 재귀적인 recurrent한 패턴을 통해 결과가 나옴
따라서 결과 ht는 x0~xt까지 다 포함한다
window size는 sequence의 길이 , 5개를 볼겨나 10개를 볼겨냐 결정
interval은 window내 데이터 사이 시간간격을 조절 , 바로 인접한 데이터가 아니라 인근의 추세를 볼수있음
stride는 widow 한묶음 (window 간의) 시간간격을 조절함 (sequence 시작점들의 간격)
LSTM 모델 학습
문장이 길어서 a라는 문자를 기억하지 못함
pen을 써야하는지 pens를 써야하는지 기억을 잘 하지 못한다
forget gate 는 cell state 지금까지 저장된 정보중에 중요X 데이터 삭제
input gate 는 LSTM입력으로 들어오는 정보가 중요한지 판단해서 중요x데이터 삭제
output gate 는 cell state에서 hidden state로 나갈때 지금 출력이 될지안될지 결정
GRU (gated recurrnet unit)
'SK mysuni > 2023 SK guided project' 카테고리의 다른 글
SK LTE 기지국 장비의 성능 상태 예측_경진대회 참고사이트 (0) | 2023.08.27 |
---|---|
SKHy DRAM 내부 회로의 파형 예측(Pytorch)_transformer 모델을 통한 파형 예측 (1) | 2023.08.27 |
SKHy DRAM 내부 회로의 파형 예측(Pytorch)_회귀분석 실습 (0) | 2023.08.19 |
SKHy DRAM 내부 회로의 파형 예측(Pytorch)_회귀분석 (0) | 2023.08.19 |
SKHy DRAM 내부 회로의 파형 예측(Pytorch)_실습 (0) | 2023.08.19 |