Co-week 수료증
Co-Week 수료증
Co-Week 수료증
오늘은 BatchNormalization을 파이썬 넘파이로 구현하고 하나씩 뜯어서 공부해보려합니다.
Adam 은 Momentum 방식과 RMSProp 방식의 합입니다. GD부터 순차적으로 하나씩 뜯어보면서 Adam Optimizer에 대해서 알아보겠습니다.
Transformer
딥러닝 공부 30일차
딥러닝 공부 29일차
딥러닝 공부 28일차
딥러닝 공부 27일차
딥러닝 공부 26일차
딥러닝 공부 25일차
딥러닝 공부 24일차
딥러닝 공부 23일차
딥러닝 공부 22일차
딥러닝 공부 19일차, 21일차
딥러닝 공부 18일차(+20일차)
딥러닝 공부 17일차
딥러닝 공부 15일차
딥러닝 공부 12일차 BackPropagation(역전파)
딥러닝 공부 11일차 Perceptron(퍼셉트론)
딥러닝 공부 10일차 MNIST
딥러닝 공부 9일차 Learning Rate
딥러닝 공부 8일차 Maximum Liklihood Estimation(MLE)
딥러닝 공부 7일차 Softmax Classification Multinomial classification
딥러닝 공부 6일차 Logistic Regression
딥러닝 공부 5일차 Mini Batch and Data Load
딥러닝 공부 4일차 Multivariable Linear Regression
딥러닝 공부 3일차 Linear Regression
딥러닝 공부 2일차 Other Basic Ops
딥러닝 공부 1일차 Vector, Matrix, Tensor 에 대해서
안녕하세요~ 오늘은 기술 블로그를 시작하는 창대한 날입니다!