Transformer를 이용해 protein sequence를 source로, Drug SMILES sequecne를 target으로 사용하는 모델을 만들고 있다. 더보기 Transformer input은 보통 RNN과 다르게 단어의 토큰 시퀀스를 하나씩 순차적으로 전달하지 않고, 문장 하나를 뭉탱이로 Encoder나 decoder로 전달하기 때문에 컴퓨터는 로직상 RNN처럼 순차적으로 전달될때와 다르게 문장이 어떤 순서로 작성되어있는지 이해할 수 없다. 예를 들어보자, "나는 찰옥수수가 들어간 밥을 먹기로 엄마와 약속했다." 라는 문장이 있을 때 이 문장을 RNN으로 전달하면 ['나', '는', '찰옥수수', '가', '들어', '간', '밥', '을', '먹기', '로', '엄마', '와', '약속'..
Background/Math
2023. 3. 14. 17:43
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
TAG
- 이왜안
- antigen antibody interaction prediction
- 인공지능
- Matrix algebra
- 3B1B따라잡기
- 항원항체결합예측모델
- 3b1b
- MatrixAlgebra
- MorganCircularfingerprint
- Manimlibrary
- 베이즈정리
- elementry matrix
- MLE
- eigenvector
- dataloader
- manim
- 기계학습
- 파이썬
- 최대우도추정
- 오일석기계학습
- marginal likelihood
- 논문리뷰
- 선형대수
- manim library
- 나노바디
- nanobody
- ai신약개발
- manimtutorial
- eigenvalue
- 백준
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
글 보관함