
https://biomadscientist.tistory.com/61 [오일석 기계학습] 10.4 - 확률 그래피컬 모델 RBM과 DBN (1) DeepConv-DTI 논문을 읽는데 Deep Belief Network(이하 DBN)이라는 모델이 등장한다. 읽어보니 Restricted Boltzmann Machine(이하 RBM)을 여러층 쌓아 만든 확률적 분포 생성모델 뭐시기 하는데 도저히 한줄도 이해 biomadscientist.tistory.com https://biomadscientist.tistory.com/62 [오일석 기계학습] 10.4 - 확률 그래피컬 모델 RBM과 DBN (2) https://biomadscientist.tistory.com/61 [오일석 기계학습] 10.4 - 확률 그래..

DeepConv-DTI 후속으로 나온 논문인데 figure가 조금 부실하지 않나 생각이 든다. 본문에서의 설명과 figure에서 직관적으로 이해되는 부분에서 불일치를 보이는 부분들도 있었다. (나의 이해력이 딸리는 것도 있겠지만, 썩 친절한 논문은 아닌것 같다.) 깃헙 코드를 뜯어서 이해해보자니 코드가 텐서플로우 기반이라 파이토치를 기반으로 공부한 내가 보기엔 대강 느낌은 파악되지만 명확한 이해는 안되는데다가 솔직히 코드도 조금 난잡한 것 같다. 따라서 해당 논문은 간략하게만 정리한다. 아이디어 참고만 하도록 하자. Abstract HoTS는 Binding Region(BR)이라는 DTI에 중요한 역할을 하는 위치를 hilights한다. BR을 찾기 위하여 Protein의 sequential motif를..

Abstarct DTI(Drug-Target Interaction)에 대한 Identification은 Drug discovery에서 중요한 역할을 한다. 그러나 in vitro 및 in vivo 실험으로 모든 Drug-Target pair에 대한 실험을 진행하는 것은 사실상 불가능하다. 따라서 최근 in silico computational machine learning methods들이 각광받고 많은 연구가 되고있다. 그러나 machine learning methods는 accuracy가 썩 좋지 못했고, 최근 deep learning based research가 활발히 진행중 우리는 Raw protein seq에 대해 CNN을 통해 local residue pattern을 capturing했고 다양..

기계학습에서 널리 사용되는 분포로는 가우시안분포와 베르누이분포, 이항분포가 있다. 이 분포들은 1개 또는 2개의 매개변수로 분포 형태를 쉽게 조절할 수 있다. 가우시안 분포(Gaussian distribution) 가우시안 분포는 평균(μ)과 분산(σ2)을 나타내는 2개의 매개변수로 분포 형태가 정해진다. 가우시안 분포 중 평균이 0 분산이 1인 분포를 특히 정규분포(normal distribution)라고 한다. 가우시안 분포는 N(x; μ, σ2)또는 N(μ, σ2)으로 나타낸다. 세미콜론 앞에는 확률변수를, 세미콜론 뒤에는 분포를 나타내는 매개변수를 나타낸다. 자연적으로 발생하는 현상들은 주로 가우시안 분포와 유사한 형태를 나타낸다. 예를들어 사람의 키, 영상에 나타나는 잡음 신호, 성적 등이 대표..

https://biomadscientist.tistory.com/61 [오일석 기계학습] 10.4 - 확률 그래피컬 모델 RBM과 DBN (1) DeepConv-DTI 논문을 읽는데 Deep Belief Network(이하 DBN)이라는 모델이 등장한다. 읽어보니 Restricted Boltzmann Machine(이하 RBM)을 여러층 쌓아 만든 확률적 분포 생성모델 뭐시기 하는데 도저히 한줄도 이해 biomadscientist.tistory.com 지난 포스팅에서는 RBM의 기본적인 구조와 RBM에서 각 입력벡터 P(x)의 발생 확률분포를 얻는 방법을 공부하였다. 이번 포스팅에서는 얻어진 P(x)값을 이용해서 어떻게 RBM을 학습시킬지에 대해서 포스팅해보려 한다. 2. RBM 학습 RBM의 목적은 훈..

DeepConv-DTI 논문을 읽는데 Deep Belief Network(이하 DBN)이라는 모델이 등장한다. 읽어보니 Restricted Boltzmann Machine(이하 RBM)을 여러층 쌓아 만든 확률적 분포 생성모델 뭐시기 하는데 도저히 한줄도 이해가 안가더라. 예전부터도 도대체 이놈의 RBM만 나오면 무슨말인지 이해를 도저히 못하겠었는데 이번기회에 확실하게는 아니더라도 개념이라도 잡고 가야겠다는 생각이 강하게 들어서 일단 다 제쳐두고 오늘은 이 RBM과 DBN의 개념에 대해 공부해보기로 하자. 먼저 RBM의 기본 시작은 BM부터다. 다음 그림을 통해 BM과 RBM의 개념을 이해하자 BM은 입력층으로 사용되는 가시 노드(visible node)와 출력층의 은닉 노드(hidden node, la..

https://biomadscientist.tistory.com/51 [오일석 기계학습] 2.2 수학 - 확률과 통계 - 베이즈 정리 https://biomadscientist.tistory.com/47 [오일석 기계학습] 2.2 수학 - 확률과 통계 - 곱 규칙과 전확률 규칙 기계학습이 다루는 데이터는 주로 '불확실성'을 가지고있는 실생활로부터 온 데이터들, 따라서 biomadscientist.tistory.com 이전 포스팅에서 베이즈 정리에 대해 공부하였다. 베이즈 정리를 설명하기 위한 문제에서 우리는 재수가 좋게도 모든 상황에 대한 확률을 명확하게 알 수 있었다.(사전확률, 우도, marginal likelihood 등) 그리고 그로부터 쉽게 계산하지 못하는 사후확률을 계산할 수 있었다. 그러나 ..
코드앞에 nohup 코드 맨 뒤에 & 추가한다. 예를들자 python train.py --task fuck 실행을 하고자 한다. 근데 오래걸려, 일주일 예상해 이럴경우 백그라운드 작업이 진행되도록 하려면 다음과 같이 코드를 실행하자 nohup python train.py --task fuck & 1. 그냥 맨 뒤에 & 만 붙이면 컴퓨터 로그아웃시에는 프로그램이 종료된다. 그냥 내가 리눅스 환경에서 다른 작업을 할 수 있을 뿐이다. 2. 추가로 아예 리눅스 서버에서 로그아웃또는 mobaXterm같은 terminal을 종료까지해도 프로세스는 진행되게 하고싶으면 코드 맨 앞에 nohup까지 붙여줘야한다. 참고로 nohup은 no hang up의 줄임말로 그냥 프로그램 끊지마 이런 뜻이다. 아멘

본 포스팅은... 주인장 개인 중간고사 공부를 위해 지극히 개인적으로 작성하는 개인주의포스팅이니 정리도 두서없이 할거고 내가 이미 이해하고 있는 개념들에 대해서는 설명 없이 넘어갈수도 있으므로.. 시작부터 헛소리를 많이적는게.. 개인주의알레르기가 있는 어쩌구 저쩌구 손님분들께서는 뒤로가기를... 모든 내용은 강원대학교 고갑석 교수님 강의를 바탕으로 작성됩니다. https://ee.kangwon.ac.kr/ee/professor/professor.do?mode=view&key=$cms$IwBgHMDsxA& 교수 | 전자공학과 ee.kangwon.ac.kr 1. Bayesian Decison Theory 기본 개념 컴퓨터 계산을 통해 optimal decision을 내리는 task에는 필연적으로 uncert..
- Total
- Today
- Yesterday
- nanobody
- ai신약개발
- kld
- 제한볼츠만머신
- 베이즈정리
- variational autoencoder
- eigenvalue
- 파이썬
- 백준
- Matrix algebra
- 최대우도추정
- manim library
- 인공지능
- 이왜안
- 오일석기계학습
- kl divergence
- 나노바디
- MatrixAlgebra
- 기계학습
- MLE
- marginal likelihood
- MorganCircularfingerprint
- 3B1B따라잡기
- elementry matrix
- manim
- Manimlibrary
- 3b1b
- eigenvector
- 선형대수
- manimtutorial
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |