Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- forward
- band_part
- triu
- Til
- 네이버 부스트캠프
- ubuntu
- tensorflow
- Linux
- tril
- Chrome Remote Desktop
- ai tech
- 크롬 원격 데스크톱
- RNN
- kde
- error
- LSTM
- pytorch
- nn.Sequential
- GRU
- kernel density estimation
Archives
- Today
- Total
목록LSTM (1)
무슨 생각을 해 그냥 하는거지

※ 정보전달이 목적인 포스트가 아니라 개인 학습 기록 및 정리가 목적인 포스트입니다 ※ 해당 포스트는 네이버 커넥트 재단의 부스트캠프 마스터님이신 주재걸 교수님의 강의를 바탕으로 작성되었습니다. 1. 강의 복습 내용 [RNN] RNN의 특징은 매 timestep마다 같은 weight를 사용한다는 것. 이때 output vector y_t는 problem setting이 어떤 것이냐에 따라 매 timestep마다 계산해야 할 수도 있고, 마지막에만 계산해야 할 수도 있다. y_t는 binary classification인 경우, output dimension이 1. multi-class classification인 경우 class 개수만큼의 dimension을 갖는다. (vector로 봐서 dimensio..
Naver AI Tech 2기/Today I Learned
2021. 9. 8. 02:55