![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/b53SSH/btrWTLzIVRl/uiOXWkzs8hd0RHEWd7Aqz0/img.png)
해당 내용은 개인 공부를 위해 작성되었습니다. 아래 공돌이 수학노트님의 영상을 참고한 내용입니다. https://www.youtube.com/watch?v=XhlfVtGb19c 이해 될때까지 공부하자 1. 최대우도법이란 (MLE) 1. MLE는 모수(파라미터)를 이용한 데이터 밀도 추정방법이다. 2. 모수 세타를 아래와 같이 정의할 때, $$ \Theta = (\theta _1,\theta _2...\theta _m)$$ 3. 어떤 확률밀도함수(PDF) P(x | Θ)에서 관측된 4. 표본 데이터 집합 X를 아래와 같이 정의할 때, $$X = (x_1,x_2,...x_n)$$ 5. 표본들로부터 아래의 모수 세타를 추정하는 방법이다. $$ \Theta = (\theta _1,\theta _2...\thet..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/bQYwiI/btrWWsTHzAu/zyKVkFlmbg36Ywy63D62T1/img.png)
해당 내용은 개인 공부를 위해 작성되었습니다. 아래 이상호 선생님의 영상을 참고한 내용입니다. https://www.youtube.com/watch?v=sOtkPm_1GYw 나에게 VAEs를 이해하는데 가장 큰 어려움은 현재 최대우도추정법에 대한 이해가 너무나 헷갈린다는 것이다. 되는대로 모든 영상을 참고하여 공부할 예정이고 공부하면서 이해 안가는 것들을 하나하나 정리해가다보면 언젠가 이해가 되겠지.. 일단 공부해보자. 이런 문제를 마주했다고 생각하자, 일단 항아리에 검은 구슬이 40개정도 들어있을 것으로 유추할 수 있을 것이다. 그러나 도대체 그 근거가 무엇인가? 어떤 이유로 우리는 항아리속에 40개의 검은 구슬이 있었을 것으로 예상하고 답변할 수 있는 것일까? 1. 먼저 우리가 목격한 사건을 확률적인..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/zweta/btrWZXliK8k/T4XsqFFOt2PmdkOnpmm8ok/img.png)
해당 내용은 김성범교수님의 유튜브 강의 내용을 정리한 것입니다. 개인 공부를 위함이고 잘못된 내용이 있을 수 있으니 참고만 하시길 바랍니다. https://www.youtube.com/watch?v=dHTkIna_hFk&list=PLpIPLT0Pf7IqS4as3nefPyGv94r2aY6IT&index=20 1. 독립 사건(Independent Events) 다음 세가지 경우를 만족하는 두 사건 A와 B는 서로 독립이다. 1. $$P(B|A) = P(B)$$ 2. $$P(AB) = P(A)P(B|A) = P(B)P(A|B) = P(A)P(B)$$ 3. $$P(A_1A_2...A_n) = P(A_1)P(A_2)...P(A_n)$$ 1번은 상식적으로 생각해도 이해가 쉽다. A사건과 B사건이 독립이라함은 서로 ..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/YaYQm/btrWNaNfPAs/mstV4tT7Jpiuo4FAWbvsn1/img.png)
해당 내용은 김성범교수님의 유튜브 강의 내용을 정리한 것입니다. 개인 공부를 위함이고 잘못된 내용이 있을 수 있으니 참고만 하시길 바랍니다. https://www.youtube.com/watch?v=Cj25K_leYZw&list=PLpIPLT0Pf7IqS4as3nefPyGv94r2aY6IT&index=21 1. 조건부 확률 (Conditional probability) 조건부 확률은 두 사건 A와 B가 존재할 때, 어떤 하나의 사건이 조건으로 주어졌을 때 나머지 다른 사건이 발생할 확률을 의미한다. 조건부 확률의 식은 아래와 같이 나타낸다. $$ P(A\mid B) = \frac{P(A\cap B)}{P(B)} = \frac{P(B\cap A)}{P(B)} $$ 조건부 확률에는 다음과 같은 명제가 성립한..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/bMblZ9/btrWqqVSJ7y/OAMMtWbYlks5woaRp2mJZK/img.png)
본 내용은 모두 KMOOC 여인권 교수님의 통계학의 이해 I 수업의 내용을 기반으로 작성됩니다. 개인 공부를 위해 수업의 내용을 정리할 뿐이고, 완벽한 이해를 바탕으로 작성되지 않는 부분도 있습니다. http://www.kmooc.kr/courses/course-v1:SookmyungK+SM_sta_004k+2019_03SM_02/course/#block-v1:SookmyungK+SM_sta_004k+2019_03SM_02+type@sequential+block@4497e1d2ccbf4a33b336c44c8fdd70ce 강좌 | SM_sta_004k | K-MOOC www.kmooc.kr 1. 정규분포 (Norminal distribution) Gaussian distribution이라고 이야기하는 정규..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/GFfz0/btrVZGk2RyQ/1OjsHsuRj4saMYm8QMlbq1/img.png)
본 내용은 모두 KMOOC 여인권 교수님의 통계학의 이해 I 수업의 내용을 기반으로 작성됩니다. 개인 공부를 위해 수업의 내용을 정리할 뿐이고, 완벽한 이해를 바탕으로 작성되지 않는 부분도 있습니다. http://www.kmooc.kr/courses/course-v1:SookmyungK+SM_sta_004k+2019_03SM_02/course/ 강좌 | SM_sta_004k | K-MOOC www.kmooc.kr 1. 이항분포 (Binomial distribution) : 성공할 확률이 p인 베르누이 실험을 n번 반복했을 때, 성공 횟수(X)의 분포 예를들어 동전던지기를 8번 시행해서 다섯번 앞면이 나왔다고 하자, 이때 성공횟수 5번을 8번의 베르누이 확률변수의 합으로 나타낼 수 있다. (X1 + X2 ..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/SMNVh/btrVUATzXwT/ddI4vDaNctXa7jpohtbka1/img.png)
본 내용은 모두 KMOOC 여인권 교수님의 통계학의 이해 I 수업의 내용을 기반으로 작성됩니다. http://www.kmooc.kr/courses/course-v1:SookmyungK+SM_sta_004k+2019_03SM_02/course/ 강좌 | SM_sta_004k | K-MOOC www.kmooc.kr 1. 베르누이 시행 (Bernoulli trial) a) 각 실험에서 발생 가능한 결과는 2가지 ex) (성공S, 실패F) / (앞면, 뒷면) / (불량, 정상)... b) 각 실험은 독립적으로 수행된다. c) 모든 실험 결과의 확률은 항상 동일하다 ex) P(성공) = p 일때 P(실패) = 1-p = q 예를들어 불량품 검사를 시행해보자 10개의 제품 중 3개가 불량품이고 2개를 복원추출하는 ..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/NHRgG/btrVVHQ5Zo1/CxwkIceG1SxnlYxOdnC5ZK/img.png)
내가 다루는 데이터는 Target Protein - SMILES seq - pKa Value로 구성된 triplet structure의 dataframe이다. 그런데 문득 그런 생각이 들었다. 내가 공부를 하면서 주로 Y 값(여기서는 pKa)으로는 Kd Ki 또는 IC50 EC50 value를 사용하는데 왜 내가 가진 데이터는 pKa값을 사용하는가? 나는 pKa값을 어떤 물질의 산성도를 나타내는 척도? 정도로 사용된다는 애매모호한 값으로만 기억하고 있었다, 부끄러운 일이지만 실제 생물 실험방에서는 pH 미터기를 사용하지 pKa 미터기를 사용하는 일이 없었기 때문에 pH에 대해서는 기억하더라도 pKa를 기억하고 있을 이유가 없었기 때문이다. 그러나 Biological CS분야의 연구에서 이렇게 Drug-T..
brief solution 1. torch.from_numpy needs np.ndarray arguments not an Tensor 인자로 numpy의 ndarray를 받아야 하는 from_numpy에 실수로 Tensor를 전달하고 있었다. label = Variable(torch.from_numpy(label).float()).to(device) 해당코드를 아래와 같이 수정하면 해결할 수 있다. label = Variable(torch.from_numpy(np.array(label)).float()).to(device) 본인 코드에서 인자로 ndarray를 받아야 하는 함수에 잘못된 Tensor 타입의 데이터를 전달하고 있는지를 확인해보자
Cuda:0, Cpu 두 키워드가 에러에 동시에 출력되면 그냥 거의 백이면 백, 특정 변수는 GPU의 메모리(VRAM)에, 어떤 변수는 CPU의 메모리(RAM)에 올라와 있다고 생각하면 된다. 다음과 같은 경우를 주로 살펴보면 해결된다. model.to(device)만으로는 모델 내부에서 생성되는 변수는 device에 자동으로 올라가지 않는다. 예를들어 다음과 같은 코드를 보자 def forward(self, v): # 1. CNN ... if config['rnn_Use_GRU_LSTM_target'] == 'LSTM': h0 = torch.randn(self.direction * ... ) c0 = torch.randn(self.direction * ... ) v, (hn,cn) = self.rnn(..
- Total
- Today
- Yesterday
- 백준
- eigenvector
- ai신약개발
- kld
- elementry matrix
- eigenvalue
- 최대우도추정
- 이왜안
- 선형대수
- 3b1b
- ai인공지능
- 기계학습
- vae
- 베이즈정리
- MorganCircularfingerprint
- 3B1B따라잡기
- manimtutorial
- 오일석기계학습
- MLE
- Matrix algebra
- 제한볼츠만머신
- variational autoencoder
- manim
- 파이썬
- MatrixAlgebra
- Manimlibrary
- kl divergence
- marginal likelihood
- manim library
- 인공지능
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 | 31 |