# 마우스 효과 팅커벨
본문 바로가기 메뉴 바로가기

벼랑끝 바이오 매드 컴퓨터 사이언티스트

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

벼랑끝 바이오 매드 컴퓨터 사이언티스트

검색하기 폼
  • 분류 전체보기 (160)
    • Background (63)
      • Biology (8)
      • Math (42)
      • Statistics (8)
      • English (5)
    • Computer (74)
      • 백준 풀이 (7)
      • 이게 왜 안되지? (24)
      • 코딩 개꿀팁 (28)
      • 3B1B 따라잡기 with ManimLibrary (15)
    • Paper (4)
      • Bioinformatics (2)
      • CS (2)
    • Daily (17)
      • review (6)
      • etc (11)
  • 방명록

Background/Math (42)
[오일석 기계학습] 2.1 수학 - 선형대수(1)

1. 벡터와 행렬 : 기계학습에서는 입력된 샘플을 특징 벡터로 표현한다. 벡터는 다음과 같이 로마자 소문자로 표기한다. $$x_1=\begin{bmatrix}5.1\\3.5\\1.4\\0.2\end{bmatrix} x_2=\begin{bmatrix}4.9\\3.0\\1.4\\0.2\end{bmatrix} ... where \ x_1, x_2 \in R^4$$ 이 벡터를 4차원의 벡터라고 이야기하며 다시말해 4차원 실수 공간상의 한 점이 된다. 행렬은 이런 벡터를 여러개 담을 수 있고, 굵은 글씨의 대문자로 표현한다. $$X = \begin{bmatrix}5.1 & 3.5 & 1.4 & 0.2\\ 4.9 & 3.0 & 1.4 & 0.2\\ \vdots & \vdots & \vdots & \vdots \\ ..

Background/Math 2023. 3. 29. 12:46
1x1 Convolution은 무엇을 위해서 하는가?

Transformer를 이용해 protein sequence를 source로, Drug SMILES sequecne를 target으로 사용하는 모델을 만들고 있다. 더보기 Transformer input은 보통 RNN과 다르게 단어의 토큰 시퀀스를 하나씩 순차적으로 전달하지 않고, 문장 하나를 뭉탱이로 Encoder나 decoder로 전달하기 때문에 컴퓨터는 로직상 RNN처럼 순차적으로 전달될때와 다르게 문장이 어떤 순서로 작성되어있는지 이해할 수 없다. 예를 들어보자, "나는 찰옥수수가 들어간 밥을 먹기로 엄마와 약속했다." 라는 문장이 있을 때 이 문장을 RNN으로 전달하면 ['나', '는', '찰옥수수', '가', '들어', '간', '밥', '을', '먹기', '로', '엄마', '와', '약속'..

Background/Math 2023. 3. 14. 17:43
롤의 정리, 평균값의 정리, 코시 평균값 정리, 로피탈 정리 [증명과정 없음 주의]

!! 해당 포스팅에서는 코시의 평균값 정리에 대한 증명만 다룹니다. 롤의 정리와 평균값의 정리는 그림을 통해 자명함이 직관적으로 이해가 가능하므로 증명을 다룰 이유가 없고, 로피탈의 정리의 경우 증명보다는 응용이 더 중요하다고 생각되어 증명내용은 넣지 않았습니다. 로피탈의 정리를 이해하기 위해서는 몇 가지 다른 정리들에 대한 지식이 있어야 한다. 1. 롤의 정리 : 함수 f(x)가 닫힌구간 [a,b]에서 연속이며 열린구간 (a,b)에서 미분 가능하다고 하자, 이 때 f(a) = f(b)이라면 f'(c) = 0을 만족하는 c 값이 (a,b) 사이에 적어도 한 개 이상 존재한다. 말로 들으니 무슨말인지 모르겠다, 그러나 그림으로 그리는 순간? 정리에 대해 명확히 설명하지 않더라도 직관적으로 f'(c) = 0..

Background/Math 2023. 2. 2. 20:48
부끄럽기 짝이 없는 미적분 복습공간

부끄럽기 짝이없지만 나는 수학을 놓고산지 10년이란 세월이 지나는 바람에 인공지능학과의 석사생이면서도 아주 기초적인 미분공식조차 기억하지 못하는 경우가 상당히 많다. 지수가 어떻고 로그가 어떻고 자연로그가 미분되고 머시기머시기 하다보면 '그랬나?' 라는 생각을 수도없이 하게된다. 매번 까먹어서 기록의 필요성을 느끼므로 기억속에 미처 담지 못한 미분공식이 있을 때마다 적어놓으려한다. 참고 미분해주는 사이트 https://www.derivative-calculator.net/ Derivative Calculator • With Steps! Above, enter the function to derive. Differentiation variable and more can be changed in "Optio..

Background/Math 2023. 2. 1. 19:37
오토인코더의 모든 것-3) 도입부의 marginal likelihood에 대하여

해당 내용을 이해하기 위해서는 기초적인 수준의 조건부 확률, 베이지안 룰, 결합확률변수와 주변확률변수에 대한 이해가 있어야합니다. 1. 결합확률 변수에 대한 강의는 아래 김성범교수님의 강의를 보시거나 https://www.youtube.com/watch?v=niob_ZRZeJs 2. KMOOC에서 여인권교수님의 8주차 강좌를 통해서 결합확률변수와 주변확률변수에 대한 선수지식을 습득하시길 바랍니다. http://www.kmooc.kr/courses/course-v1:SookmyungK+SM_sta_004k+2019_03SM_02/course/ 강좌 | SM_sta_004k | K-MOOC www.kmooc.kr 3. 조건부 확률에 대한 개념이 없다면 주인장의 블로그 글을 참고하시거나 https://biom..

Background/Math 2023. 1. 27. 14:48
최대우도 추정2

해당 내용은 개인 공부를 위해 작성되었습니다. 아래 공돌이 수학노트님의 영상을 참고한 내용입니다. https://www.youtube.com/watch?v=XhlfVtGb19c 이해 될때까지 공부하자 1. 최대우도법이란 (MLE) 1. MLE는 모수(파라미터)를 이용한 데이터 밀도 추정방법이다. 2. 모수 세타를 아래와 같이 정의할 때, $$ \Theta = (\theta _1,\theta _2...\theta _m)$$ 3. 어떤 확률밀도함수(PDF) P(x | Θ)에서 관측된 4. 표본 데이터 집합 X를 아래와 같이 정의할 때, $$X = (x_1,x_2,...x_n)$$ 5. 표본들로부터 아래의 모수 세타를 추정하는 방법이다. $$ \Theta = (\theta _1,\theta _2...\thet..

Background/Math 2023. 1. 24. 17:22
최대우도 추정1 (Maximum Likelihood Estimation)

해당 내용은 개인 공부를 위해 작성되었습니다. 아래 이상호 선생님의 영상을 참고한 내용입니다. https://www.youtube.com/watch?v=sOtkPm_1GYw 나에게 VAEs를 이해하는데 가장 큰 어려움은 현재 최대우도추정법에 대한 이해가 너무나 헷갈린다는 것이다. 되는대로 모든 영상을 참고하여 공부할 예정이고 공부하면서 이해 안가는 것들을 하나하나 정리해가다보면 언젠가 이해가 되겠지.. 일단 공부해보자. 이런 문제를 마주했다고 생각하자, 일단 항아리에 검은 구슬이 40개정도 들어있을 것으로 유추할 수 있을 것이다. 그러나 도대체 그 근거가 무엇인가? 어떤 이유로 우리는 항아리속에 40개의 검은 구슬이 있었을 것으로 예상하고 답변할 수 있는 것일까? 1. 먼저 우리가 목격한 사건을 확률적인..

Background/Math 2023. 1. 24. 17:11
독립 (Independence)

해당 내용은 김성범교수님의 유튜브 강의 내용을 정리한 것입니다. 개인 공부를 위함이고 잘못된 내용이 있을 수 있으니 참고만 하시길 바랍니다. https://www.youtube.com/watch?v=dHTkIna_hFk&list=PLpIPLT0Pf7IqS4as3nefPyGv94r2aY6IT&index=20 1. 독립 사건(Independent Events) 다음 세가지 경우를 만족하는 두 사건 A와 B는 서로 독립이다. 1. $$P(B|A) = P(B)$$ 2. $$P(AB) = P(A)P(B|A) = P(B)P(A|B) = P(A)P(B)$$ 3. $$P(A_1A_2...A_n) = P(A_1)P(A_2)...P(A_n)$$ 1번은 상식적으로 생각해도 이해가 쉽다. A사건과 B사건이 독립이라함은 서로 ..

Background/Math 2023. 1. 24. 15:54
조건부 확률 (Conditional probability)

해당 내용은 김성범교수님의 유튜브 강의 내용을 정리한 것입니다. 개인 공부를 위함이고 잘못된 내용이 있을 수 있으니 참고만 하시길 바랍니다. https://www.youtube.com/watch?v=Cj25K_leYZw&list=PLpIPLT0Pf7IqS4as3nefPyGv94r2aY6IT&index=21 1. 조건부 확률 (Conditional probability) 조건부 확률은 두 사건 A와 B가 존재할 때, 어떤 하나의 사건이 조건으로 주어졌을 때 나머지 다른 사건이 발생할 확률을 의미한다. 조건부 확률의 식은 아래와 같이 나타낸다. $$ P(A\mid B) = \frac{P(A\cap B)}{P(B)} = \frac{P(B\cap A)}{P(B)} $$ 조건부 확률에는 다음과 같은 명제가 성립한..

Background/Math 2023. 1. 20. 13:41
정규분포 (Norminal distribution)

본 내용은 모두 KMOOC 여인권 교수님의 통계학의 이해 I 수업의 내용을 기반으로 작성됩니다. 개인 공부를 위해 수업의 내용을 정리할 뿐이고, 완벽한 이해를 바탕으로 작성되지 않는 부분도 있습니다. http://www.kmooc.kr/courses/course-v1:SookmyungK+SM_sta_004k+2019_03SM_02/course/#block-v1:SookmyungK+SM_sta_004k+2019_03SM_02+type@sequential+block@4497e1d2ccbf4a33b336c44c8fdd70ce 강좌 | SM_sta_004k | K-MOOC www.kmooc.kr 1. 정규분포 (Norminal distribution) Gaussian distribution이라고 이야기하는 정규..

Background/Math 2023. 1. 16. 15:57
이전 1 2 3 4 5 다음
이전 다음
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
  • 벼랑끝 깃허브
  • 벼랑끝 강아지
TAG
  • 오일석기계학습
  • MatrixAlgebra
  • 이왜안
  • variational autoencoder
  • nanobody
  • 제한볼츠만머신
  • ai신약개발
  • manim
  • 백준
  • eigenvalue
  • 3b1b
  • 베이즈정리
  • Manimlibrary
  • elementry matrix
  • eigenvector
  • 나노바디
  • MorganCircularfingerprint
  • dataloader
  • kl divergence
  • 인공지능
  • 3B1B따라잡기
  • manimtutorial
  • marginal likelihood
  • 기계학습
  • 선형대수
  • manim library
  • 최대우도추정
  • Matrix algebra
  • MLE
  • 파이썬
more
«   2025/07   »
일 월 화 수 목 금 토
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31
글 보관함

Blog is powered by Tistory / Designed by Tistory

티스토리툴바