Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- kde
- LSTM
- 네이버 부스트캠프
- nn.Sequential
- tril
- error
- GRU
- Linux
- ubuntu
- 크롬 원격 데스크톱
- Chrome Remote Desktop
- kernel density estimation
- RNN
- band_part
- triu
- Til
- ai tech
- pytorch
- tensorflow
- forward
Archives
- Today
- Total
목록LSTM (1)
무슨 생각을 해 그냥 하는거지
[학습정리] 2021-09-07
※ 정보전달이 목적인 포스트가 아니라 개인 학습 기록 및 정리가 목적인 포스트입니다 ※ 해당 포스트는 네이버 커넥트 재단의 부스트캠프 마스터님이신 주재걸 교수님의 강의를 바탕으로 작성되었습니다. 1. 강의 복습 내용 [RNN] RNN의 특징은 매 timestep마다 같은 weight를 사용한다는 것. 이때 output vector y_t는 problem setting이 어떤 것이냐에 따라 매 timestep마다 계산해야 할 수도 있고, 마지막에만 계산해야 할 수도 있다. y_t는 binary classification인 경우, output dimension이 1. multi-class classification인 경우 class 개수만큼의 dimension을 갖는다. (vector로 봐서 dimensio..
Naver AI Tech 2기/Today I Learned
2021. 9. 8. 02:55