
※ Coursera의 Build Basic Generative Adversarial Networks (GANs) 강의를 듣고 작성한 글입니다. Week 2에서는 GAN과 관련된 구성 요소들을 알아봅니다. Activations 딥러닝 layer는 linear한 연산들로 이루어져 있습니다. Linear한 연산은 하나의 linear연산으로 계산해 낼 수 있으므로 결국 하나의 연산과 같아지는 일이 발생합니다. 이러한 계산에 복잡도를 더하기 위해 non-linear를 더해주어야 합니다. 이러한 non-linear연산은 backpropagation에 미분이 사용되므로 미분가능해야합니다. 이러한 조건을 만족하여 layer에서 activation을 구하기 위해 사용하는 함수를 activation function이라고..
Deep Learning
2024. 2. 3. 14:30
최근에 올라온 글
TAG
- Raspberry Pi
- 3d object detection
- OS
- Depth estimation
- AI
- design pattern
- controllable GAN
- mode collapse
- ML Pipeline
- feature
- MLOps
- depthmap
- 신호처리
- Generative Model
- Operating System
- DSP
- 디지털신호처리
- TRACKING
- Gan
- depth
- conditional GAN
- 운영체제
- machine learning
- Deep learning
- pcb
- image
- 딥러닝
- deeplearning
- ML
- Building Basic GAN
- Total
- Today
- Yesterday
최근에 달린 댓글
링크
공지사항
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
글 보관함