DeepConv-DTI 논문을 읽는데 Deep Belief Network(이하 DBN)이라는 모델이 등장한다. 읽어보니 Restricted Boltzmann Machine(이하 RBM)을 여러층 쌓아 만든 확률적 분포 생성모델 뭐시기 하는데 도저히 한줄도 이해가 안가더라. 예전부터도 도대체 이놈의 RBM만 나오면 무슨말인지 이해를 도저히 못하겠었는데 이번기회에 확실하게는 아니더라도 개념이라도 잡고 가야겠다는 생각이 강하게 들어서 일단 다 제쳐두고 오늘은 이 RBM과 DBN의 개념에 대해 공부해보기로 하자. 먼저 RBM의 기본 시작은 BM부터다. 다음 그림을 통해 BM과 RBM의 개념을 이해하자 BM은 입력층으로 사용되는 가시 노드(visible node)와 출력층의 은닉 노드(hidden node, la..
https://biomadscientist.tistory.com/51 [오일석 기계학습] 2.2 수학 - 확률과 통계 - 베이즈 정리 https://biomadscientist.tistory.com/47 [오일석 기계학습] 2.2 수학 - 확률과 통계 - 곱 규칙과 전확률 규칙 기계학습이 다루는 데이터는 주로 '불확실성'을 가지고있는 실생활로부터 온 데이터들, 따라서 biomadscientist.tistory.com 이전 포스팅에서 베이즈 정리에 대해 공부하였다. 베이즈 정리를 설명하기 위한 문제에서 우리는 재수가 좋게도 모든 상황에 대한 확률을 명확하게 알 수 있었다.(사전확률, 우도, marginal likelihood 등) 그리고 그로부터 쉽게 계산하지 못하는 사후확률을 계산할 수 있었다. 그러나 ..
코드앞에 nohup 코드 맨 뒤에 & 추가한다. 예를들자 python train.py --task fuck 실행을 하고자 한다. 근데 오래걸려, 일주일 예상해 이럴경우 백그라운드 작업이 진행되도록 하려면 다음과 같이 코드를 실행하자 nohup python train.py --task fuck & 1. 그냥 맨 뒤에 & 만 붙이면 컴퓨터 로그아웃시에는 프로그램이 종료된다. 그냥 내가 리눅스 환경에서 다른 작업을 할 수 있을 뿐이다. 2. 추가로 아예 리눅스 서버에서 로그아웃또는 mobaXterm같은 terminal을 종료까지해도 프로세스는 진행되게 하고싶으면 코드 맨 앞에 nohup까지 붙여줘야한다. 참고로 nohup은 no hang up의 줄임말로 그냥 프로그램 끊지마 이런 뜻이다. 아멘
본 포스팅은... 주인장 개인 중간고사 공부를 위해 지극히 개인적으로 작성하는 개인주의포스팅이니 정리도 두서없이 할거고 내가 이미 이해하고 있는 개념들에 대해서는 설명 없이 넘어갈수도 있으므로.. 시작부터 헛소리를 많이적는게.. 개인주의알레르기가 있는 어쩌구 저쩌구 손님분들께서는 뒤로가기를... 모든 내용은 강원대학교 고갑석 교수님 강의를 바탕으로 작성됩니다. https://ee.kangwon.ac.kr/ee/professor/professor.do?mode=view&key=$cms$IwBgHMDsxA& 교수 | 전자공학과 ee.kangwon.ac.kr 1. Bayesian Decison Theory 기본 개념 컴퓨터 계산을 통해 optimal decision을 내리는 task에는 필연적으로 uncert..
해당 포스팅은 공부가 많이 되지 않았을 시절에 작성한 것이라 지금 보니 부족한 내용도 보이고 설명이 매우 미흡합니다. 아래 포스팅을 확인해보면 더욱 잘 설명된 initialization 방식들을 확인할 수 있습니다. https://reniew.github.io/13/ 가중치 초기화 (Weight Initialization) An Ed edition reniew.github.io Xavier initializer는 Neural Network에서 사용하는 weight initialization 방법이다. Xavier Glorot에 의해 고안된 방법이라 이러한 이름이 붙었다. 이 초기화 방법은 각 layer에서의 activation function에 의해 activation 된 weight 값의 결과(acti..
AI 신약개발 분야에서 공부하다보면 finger print라는 단어를 많이 보게 된다. 우리가 각각의 사람들마다 서로다른 지문(finger print)를 가지고 있듯 chemical들도 각각의 finger print를 부여해 서로 구분할 수 있도록 하자는 개념이다. 서로간의 chemical similarity를 구분짓기 위해 수많은 chemical들을 Morgan algorithm으로 분석하여 circular substructures 또는 circular fingerprints들을 구성한다. 그리고 각각의 chemical의 시퀀스를 알고리즘을 통해 분석하여 해당 chemical 시퀀스에 존재하는 circular substructure는 1로, 존재하지 않으면 0으로 나타낸다. 예를 들어보자 CH3CH2O..
더보기 참고 사이트 https://gaussian37.github.io/dl-concept-global_average_pooling/ Global Average Pooling 이란 gaussian37's blog gaussian37.github.io https://www.youtube.com/watch?v=FUv5NHL9s_U https://jetsonaicar.tistory.com/16 6-3 Global Average Pooling 최근 CNN 계열에서 classifier 로서 GAP (Global Average Pooling)를 사용하는 추세입니다. conv layer에서 많이 사용하는 pooling으로는 max pooling이 있습니다. feature의 일부 영역에서 가장 큰 값을 선택하여 (ma..
CUDA 등의 GPU 이용 환경은 이미 설치가 되어있다는 가정하에 설명합니다. (만약 CUDA 환경자체가 설정되지 않은것이라면... 약간은 고생할 생각을 해야된다... 리눅스에서 CUDA 설치는... 최악의 난이도...) 1. nvidia-smi명령어를 통해 내 시스템에 설치되어있는 GPU 상태를 확인한다. 2. [1번 빨간 동그라미 친 부분] 현재 서버에 설치된 GPU들의 number를 확인할 수 있고, 3. [2번 밑줄 부분] 각각의 GPU들의VRAM이 얼마만큼 사용중에 있는지를 확인할 수 있다. 여기서 내가 사용할 모델의 용량과 남아있는 GPU 메모리를 살펴보고 몇번 GPU를 사용할지 결정한다. 4. [3번 박스] 몇번 GPU에서 어떤 process가 돌아가고 있는지를 상세히 확인할 수 있다. 5...
quantity와 amount의 차이는 무엇일까? quantity는 보통 명확한 단위로 셀 수 있는 물질의 양을 이야기할 때 사용하며 amount는 셀 수 없는 물질의 양을 나타낼 때 이야기한다. (찾아보니 반드시 그런 것은 아니고 보통은 그렇게 이야기하며 둘을 혼용하여 사용하여도 되긴 하나보다.) 사진에서 예를들어 물병이 4개 있으므로 quantity는 4가 될 것이고, 각각의 물병 안에 물이 들어있는 양을 이야기하고 싶을때는 amount of water로 이야기한다. The quantity of the water bottles is enough to drink because the amount of water in each bottle is full. 문장이 약간 어색할 수 있지만 두 단어를 동시에 ..
https://biomadscientist.tistory.com/47 [오일석 기계학습] 2.2 수학 - 확률과 통계 - 곱 규칙과 전확률 규칙 기계학습이 다루는 데이터는 주로 '불확실성'을 가지고있는 실생활로부터 온 데이터들, 따라서 자연스럽게 기계학습 역시 확률과 통계를 잘 활용해야만 좋은 모델을 만들 수 있다. 1. 확률 기초 biomadscientist.tistory.com 이전 포스팅에서 조건부 확률과 결합확률의 곱규칙과 전확률 규칙에 대하여 공부하였다. 이번 포스팅에서는 두 규칙을 이용해 베이즈 정리에 대해 공부해보려 한다. 곱규칙과 전확률 규칙을 이해하지 못한 상태로는 베이즈 정리 이해가 어려울 수 있으니 먼저 이전 포스팅에서 다룬 두 규칙에 대한 이해를 선행한 후에 이 포스팅을 읽기를 추천..
- Total
- Today
- Yesterday
- 백준
- Manimlibrary
- manimtutorial
- 인공지능
- vae
- MorganCircularfingerprint
- 3b1b
- MatrixAlgebra
- 오일석기계학습
- ai신약개발
- 베이즈정리
- marginal likelihood
- variational autoencoder
- eigenvector
- manim library
- 기계학습
- 제한볼츠만머신
- 선형대수
- 3B1B따라잡기
- ai인공지능
- MLE
- 파이썬
- 최대우도추정
- eigenvalue
- Matrix algebra
- 이왜안
- kld
- elementry matrix
- manim
- kl divergence
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |