![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/PXIzC/btsaER51rZk/uKSG15GVsnMC0GkK9D1rt0/img.png)
AI 신약개발 분야에서 공부하다보면 finger print라는 단어를 많이 보게 된다. 우리가 각각의 사람들마다 서로다른 지문(finger print)를 가지고 있듯 chemical들도 각각의 finger print를 부여해 서로 구분할 수 있도록 하자는 개념이다. 서로간의 chemical similarity를 구분짓기 위해 수많은 chemical들을 Morgan algorithm으로 분석하여 circular substructures 또는 circular fingerprints들을 구성한다. 그리고 각각의 chemical의 시퀀스를 알고리즘을 통해 분석하여 해당 chemical 시퀀스에 존재하는 circular substructure는 1로, 존재하지 않으면 0으로 나타낸다. 예를 들어보자 CH3CH2O..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/bMBtN2/btsaioSsasD/2ND7zlGYInm3ByQAbt35Wk/img.png)
더보기 참고 사이트 https://gaussian37.github.io/dl-concept-global_average_pooling/ Global Average Pooling 이란 gaussian37's blog gaussian37.github.io https://www.youtube.com/watch?v=FUv5NHL9s_U https://jetsonaicar.tistory.com/16 6-3 Global Average Pooling 최근 CNN 계열에서 classifier 로서 GAP (Global Average Pooling)를 사용하는 추세입니다. conv layer에서 많이 사용하는 pooling으로는 max pooling이 있습니다. feature의 일부 영역에서 가장 큰 값을 선택하여 (ma..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/bcdaX8/btr9NAMkBp8/l1m13Y8u7WGU8OB10ki5TK/img.png)
quantity와 amount의 차이는 무엇일까? quantity는 보통 명확한 단위로 셀 수 있는 물질의 양을 이야기할 때 사용하며 amount는 셀 수 없는 물질의 양을 나타낼 때 이야기한다. (찾아보니 반드시 그런 것은 아니고 보통은 그렇게 이야기하며 둘을 혼용하여 사용하여도 되긴 하나보다.) 사진에서 예를들어 물병이 4개 있으므로 quantity는 4가 될 것이고, 각각의 물병 안에 물이 들어있는 양을 이야기하고 싶을때는 amount of water로 이야기한다. The quantity of the water bottles is enough to drink because the amount of water in each bottle is full. 문장이 약간 어색할 수 있지만 두 단어를 동시에 ..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/bP6TTm/btscwD7QS9G/lAZ9aniE9h1grFIYKktkr0/img.jpg)
https://biomadscientist.tistory.com/47 [오일석 기계학습] 2.2 수학 - 확률과 통계 - 곱 규칙과 전확률 규칙 기계학습이 다루는 데이터는 주로 '불확실성'을 가지고있는 실생활로부터 온 데이터들, 따라서 자연스럽게 기계학습 역시 확률과 통계를 잘 활용해야만 좋은 모델을 만들 수 있다. 1. 확률 기초 biomadscientist.tistory.com 이전 포스팅에서 조건부 확률과 결합확률의 곱규칙과 전확률 규칙에 대하여 공부하였다. 이번 포스팅에서는 두 규칙을 이용해 베이즈 정리에 대해 공부해보려 한다. 곱규칙과 전확률 규칙을 이해하지 못한 상태로는 베이즈 정리 이해가 어려울 수 있으니 먼저 이전 포스팅에서 다룬 두 규칙에 대한 이해를 선행한 후에 이 포스팅을 읽기를 추천..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/c7gBuZ/btr9miekdad/D5oaFw5mBVVRRE0Bnd9heK/img.png)
shadow는 우리말로 그림자, 즉 어떤 물체의 그림자 그 자체를 이야기할때 쓰는 표현이다. shade는 그늘, 응달처럼 어떤 큰 물체의 그림자로 인해 그림자가 드리워진 영역이나 장소를 표현하는 단어이다. 예를들어 그림자와 그늘 두 단어의 차이점을 생각해보자. 연필의 그림자를 보고 보통은 그림자라고 하지 그늘이라고 이야기하지 않는다. 즉 연필의 그림자는 shadow다. 거대한 나무의 그림자가 드리워있는 영역을 보고는 나무의 그림자라고 하기도 하지만 주로 그늘이라는 표현을 쓴다. 따라서 나무에 의해 그림자가 드리워져있는 영역을 우리는 그늘, 응달이라고 하며 이때는 shade라는 표현을 쓴다. "I'm sitting in the shade of the tree" or "I drew the shades to ..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/dqVNuX/btr8i9ICTEe/oky2LbC1bsL8HfgqMFLYjK/img.jpg)
[과학자의 단어장] 시리즈는 우매한 나를 위하여 공부한 영어 지식을 바탕으로 작성됩니다. 등장하는 문장은 제가 직접 작문하는 것이라 영어 고수분들의 눈에는 상당히 어색하게 보일수 있습니다. 전문적인 상황에서의 도움이 필요하다면 영어/회화 전문 블로거들의 글을 통해 더블체크하시길... Crack down on 1. ~를 엄히 단속하다. 그들은 음주운전자를 단속하기 위해서 불시로 검문을 실시한다. They conduct an inspection to crack down on drunk driver They conduct an casual inspection to crack down on drunk driver. 2. ~를 통렬하게 비판하다. 서방 국가들은 우크라이나에 전쟁을 선포한 블라디미르 푸틴 러시아 대..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/wgwqa/btr7hu1XIGw/WnUZuVBi3bn5qX1OVOw8W1/img.png)
기계학습이 다루는 데이터는 주로 '불확실성'을 가지고있는 실생활로부터 온 데이터들, 따라서 자연스럽게 기계학습 역시 확률과 통계를 잘 활용해야만 좋은 모델을 만들 수 있다. 1. 확률 기초 확률변수와 확률 분포 도,개,걸,윷,모가 나오는 윷놀이가 있다. 먼저 확률을 수식으로 표현하려면 위 다섯가지 경우의 수들 중 한가지를 나타내는 변수가 필요하다. 이렇게 어떤 상황이 발생하는지를 나타내는 변수를 확률변수(random variable)이라고 하며 주로 영어 소문자로 나타낸다. 그리고, 윷놀이에서는 이런 확률변수가 각각 [도, 개 ,걸, 윷, 모]로 5가지가 존재하며 이 확률 변수 전체의 모임을 '정의역'이라 부르며 보통 영어 대문자로 나타낸다.. 전체 정의역에 걸쳐 확률값을 모두 표기한 것을 확률 분포(p..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/vzG7e/btr61S2CHJa/SoszSL1FC8d9NHWYvXmox0/img.png)
3. 퍼셉트론의 해석 퍼셉트론은 입력되는 d차원의 샘플벡터를 c차원의 부류 중 하나로 분류하는 분류기의 역할 퍼셉트론의 입력 및 출력 방식은 다음과 같다. $$output = \tau(w \bullet x) \ ,where\ \ \tau(a) =\begin{cases}1 & a \geq T\\-1 & a 0\ , \ where \ \forall x\ except \ for \ x=\vec{0} $$ 직접 임의의 간단한 2x2 matrix A와 2차원의 벡터를 넣어 계산해보면 쉽게 이해할 수 있을 것이다. 이 때 사용되는 벡터들은 영벡터가 아니어야한다. 추가로 존재하는 부호개념은 다음과 같다. $$positive \ semi-definite\ matrix (A)= x^TAx \geq 0\ , \ for \..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/3UNGN/btr6N2Y4h99/rNGTrD0Yhs9EZpBp2EBLHk/img.png)
이게 무슨말인가? 나도 모르겠다 일단 문제를 확인해보자 어떤 부부의 첫째 아이가 여아였다, 이 때 둘째 아이도 여아일 확률은? 정말이지 나도 보면 볼수록 베이즈 통계가 수학계에서 받아들여졌다는 사실이 믿기지 않을정도로 터무니없는 문제를 다룬다. 당연히 그냥 50% 아닌가? 라고 생각 들 수밖에 없다. 그러나 그렇지 않으니까 문제로 나오는 것이 아닐까 일단 한번 이 문제를 베이즈 추론을 통해 다뤄보기로 하자. 한가지 이야기하고 넘어가자, 우리가 왜 당연히 50%라고 생각하는걸까? 그것은 우리가 보통의 표준 통계학인 네이만-피어슨 통계학 개념에 익숙해져 있기 때문이다. 그러나 이런 표준적인 통계학은 인류라는 하나의 종족에 대한 전체 통계적인 수치는 제시해줄 수 있지만, 문제에서 제시한 것 처럼 '어떤 부부'..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/w960J/btr6Jpm57nw/OG2YJ1TYKMqEkYiyv1N5Tk/img.png)
이번 포스팅에서는 문제를 다음과 같이 설정해보자 당신을 남성이라고 가정하자, 동료들 중 특정한 여성으로부터 발렌타인데이에 초콜렛을 전달 받았다. 그녀가 당신을 진지하게 생각하고 있을 확률은? 이게 도대체 무슨 뜬구름 잡는 문제인가? 이게 수학이라고? 이걸 지금 수학문제라고 이야기하는 것인가? 이게 확률? 이런 생각을 하고있다면 아주 정상이다. 실제로 베이즈 통계학은 위와 같은 이유로 괴짜취급을 당하기도 했다. 다시 차근차근 베이즈 추론 프로세스를 이용해서 추론해보자 1. 사전확률을 설정한다. 계속 이야기 하게되겠지만 베이즈 추정에서 사전확률은 경험/믿음/신뢰에 의거하거나 혹은 무작위로 설정한 확률분포를 사용하면 된다. 그리고 여기에서 사전확률은 그녀는 나에게 호감이 있을까 없을까이며 이렇게 아무런 정보도..
- Total
- Today
- Yesterday
- manim library
- 이왜안
- MorganCircularfingerprint
- Manimlibrary
- 3b1b
- 베이즈정리
- elementry matrix
- 오일석기계학습
- kl divergence
- 선형대수
- eigenvalue
- eigenvector
- vae
- 기계학습
- marginal likelihood
- manimtutorial
- manim
- ai신약개발
- MatrixAlgebra
- Matrix algebra
- 백준
- kld
- variational autoencoder
- MLE
- ai인공지능
- 제한볼츠만머신
- 최대우도추정
- 3B1B따라잡기
- 파이썬
- 인공지능
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 | 31 |