일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- 네이버 부스트캠프
- 크롬 원격 데스크톱
- tensorflow
- band_part
- LSTM
- nn.Sequential
- kernel density estimation
- Chrome Remote Desktop
- ubuntu
- forward
- RNN
- Linux
- pytorch
- ai tech
- Til
- triu
- tril
- error
- kde
- GRU
- Today
- Total
목록Naver AI Tech 2기/Today I Learned (26)
무슨 생각을 해 그냥 하는거지
![](http://i1.daumcdn.net/thumb/C150x150.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/RBYog/btrbpOWuCTu/JAoL9VKGJ6rHk97AyKzIx1/img.png)
※ 정보전달이 목적인 포스트가 아니라 개인 학습 기록 및 정리가 목적인 포스트입니다 ※ 1. 강의 복습 내용 [RNN] 선택과제 2를 수행하다보니 RNN에 대한 이해가 부족한 것 같아서 영상을 다시 보고, 관련 자료들을 찾아보며 공부해봤다. 아래 그림은 스탠포드 대학교의 CS224N 강의자료에서 가져왔다! 유튜브에 강의가 올라와있고 강의자료도 공개가 되어있다 :) RNN은 input의 길이가 일정하지 않아도 되고, 모든 layer가 같은 weight를 공유한다는 장점이 있다. Weight는 잠재변수 h에 곱해지는 weight Wh, input x에 곱해지는 Wx, output에 곱해지는 W가 있다. 위 그림에서는 각각 Wh, We, U에 해당하는 weight들이다. [MLE] MLE는 최대가능도 추정법(..
![](http://i1.daumcdn.net/thumb/C150x150.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/Ax77r/btra8zleleV/DuDeLP7ZskKCwnxxHF699k/img.png)
※ 정보전달이 목적인 포스트가 아니라 개인 학습 기록 및 정리가 목적인 포스트입니다 ※ 해당 포스트는 네이버 커넥트 재단의 부스트캠프 마스터님이신 유니스트 임성빈 교수님의 강의를 바탕으로 작성되었습니다. 1. 강의 복습 내용 [통계학 기초] 모수적 방법론과 비모수적 방법론의 차이 모수적 방법론은 데이터가 특정 확률분포를 따른다고 먼저 가정. 비모수적 방법론은 데이터가 특정 확률분포를 따른다고 가정하지 않음! 비모수적 방법론이 '모수를 사용하지 않는다'라고 생각하지 않도록 주의하자. 확률분포의 종류 이산: 베르누이분포(데이터가 binary(0 또는 1만)), 카테고리분포(이산적인 값이 n개) 등 연속: 베타분포, 감마분포, 정규분포, 라플라스분포 등 → 히스토그램의 모양을 보고 확률분포를 가정할 수 있다...