1x1 Convolution은 무엇을 위해서 하는가?
Transformer를 이용해 protein sequence를 source로, Drug SMILES sequecne를 target으로 사용하는 모델을 만들고 있다. 더보기 Transformer input은 보통 RNN과 다르게 단어의 토큰 시퀀스를 하나씩 순차적으로 전달하지 않고, 문장 하나를 뭉탱이로 Encoder나 decoder로 전달하기 때문에 컴퓨터는 로직상 RNN처럼 순차적으로 전달될때와 다르게 문장이 어떤 순서로 작성되어있는지 이해할 수 없다. 예를 들어보자, "나는 찰옥수수가 들어간 밥을 먹기로 엄마와 약속했다." 라는 문장이 있을 때 이 문장을 RNN으로 전달하면 ['나', '는', '찰옥수수', '가', '들어', '간', '밥', '을', '먹기', '로', '엄마', '와', '약속'..
Background/Math
2023. 3. 14. 17:43
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
TAG
- 인공지능
- ai신약개발
- 기계학습
- 베이즈정리
- Matrix algebra
- manimtutorial
- eigenvector
- 3b1b
- MorganCircularfingerprint
- 3B1B따라잡기
- kld
- Manimlibrary
- elementry matrix
- vae
- marginal likelihood
- variational autoencoder
- ai인공지능
- eigenvalue
- MLE
- 오일석기계학습
- manim library
- 이왜안
- MatrixAlgebra
- 최대우도추정
- kl divergence
- 파이썬
- 선형대수
- 제한볼츠만머신
- manim
- 백준
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
글 보관함