Cuda:0, Cpu 두 키워드가 에러에 동시에 출력되면 그냥 거의 백이면 백, 특정 변수는 GPU의 메모리(VRAM)에, 어떤 변수는 CPU의 메모리(RAM)에 올라와 있다고 생각하면 된다. 다음과 같은 경우를 주로 살펴보면 해결된다. model.to(device)만으로는 모델 내부에서 생성되는 변수는 device에 자동으로 올라가지 않는다. 예를들어 다음과 같은 코드를 보자 def forward(self, v): # 1. CNN ... if config['rnn_Use_GRU_LSTM_target'] == 'LSTM': h0 = torch.randn(self.direction * ... ) c0 = torch.randn(self.direction * ... ) v, (hn,cn) = self.rnn(..
brief solution. 1. Whenever you train your model. You must check if your model and input data both are on the same device. (cpu or cuda) 2. And you must check the input data type and model parameters' data type are same Input type은 torch.FloatTensor인데 weight type(model parameter)는 torch.DoubleTensor라서 나타나는 에러라고 생각된다. for epoch in range(train_epoch+1): model.train() for i, (v_d, v_p, label) in en..
- Total
- Today
- Yesterday
- 베이즈정리
- eigenvalue
- 3B1B따라잡기
- kl divergence
- 최대우도추정
- variational autoencoder
- MatrixAlgebra
- 백준
- 제한볼츠만머신
- 인공지능
- eigenvector
- ai신약개발
- 기계학습
- manim
- Matrix algebra
- kld
- elementry matrix
- MorganCircularfingerprint
- manim library
- ai인공지능
- vae
- MLE
- 파이썬
- 오일석기계학습
- 3b1b
- Manimlibrary
- marginal likelihood
- 이왜안
- manimtutorial
- 선형대수
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |