반응형
Notice
Recent Posts
Recent Comments
Link
- Today
- Total
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 우선순위큐
- 보안기사
- 리눅스
- t검정
- 분산시스템
- 시간초과
- AWS
- LangChain
- springboot
- snort
- linux
- java
- 백준
- redis
- 데이터사이언스
- lightsail
- 코딩테스트
- FastAPI
- 그리디
- 데이터분석
- 프로그래머스
- Python
- synflooding
- 정보보안기사
- 보안
- 정보보안
- 침해대응
- 딥러닝
- t-test
- 파이썬
Archives
Techbrad
경사하강법(Gradient descent)을 이해하자 - 1 본문
반응형
이전 글에서 딥러닝이란 인공 신경망을 사용해서 데이터를 가장 잘 표현하는 weight를 구하는 것이라는 것을 익혔다. weight를 구하기 위해서 실제 값과 예측 값의 차이를 구한 손실 (Loss)를 활용하는 것이다. 근데 이게 직관적으로 와닿진 않는다. 손실은 x.xxxx와 같이 소수점으로 표현이 될텐데 이걸로 가중치를 어떻게 업데이트 할까? 감이 안잡힌다...
일단 먼저 Pytorch 학습 코드를 좀 봐보자.
outputs = Model(images)
loss = loss_function(outpus, labels)
loss.backward()
그래 보통 Model을 정의하고 inputs을 넣고 순전파를 통해 결과 (outputs)를 얻게 된다. 그리고 실제 값과의 손실을 구하고 backward() 함수를 통해 가중치를 업데이트 한다!! 그림으로 살펴보면 아래와 같다.
다음에는 손실 값으로 가중치를 어떻게 조절하는지 알아봐야겠다. 오늘은 시간이 없어서 여기까지 ㅎㅎ..
반응형
'AI & BigData > Deeplearning' 카테고리의 다른 글
딥러닝(DeepLearning)이란? (0) | 2024.01.07 |
---|---|
[NLP] BiDirectional LSTM 의 개념과 keras 코드 (0) | 2022.01.20 |
[컴퓨터비전] CNN의 기초 (0) | 2021.12.26 |