경사하강법(Gradient descent)을 이해하자 - 1
딥러닝(DeepLearning)이란? 딥러닝 주제 중에 자연어처리 등 코딩으로 학습을 위주로 하면서 경사하강법, 로스 등 적용되는 원리에 대해 많이 생각해본 적이 없었다. 이번 대학원 강의 수업은 딥러닝의 원리를 파악하는데 techbrad.tistory.com 이전 글에서 딥러닝이란 인공 신경망을 사용해서 데이터를 가장 잘 표현하는 weight를 구하는 것이라는 것을 익혔다. weight를 구하기 위해서 실제 값과 예측 값의 차이를 구한 손실 (Loss)를 활용하는 것이다. 근데 이게 직관적으로 와닿진 않는다. 손실은 x.xxxx와 같이 소수점으로 표현이 될텐데 이걸로 가중치를 어떻게 업데이트 할까? 감이 안잡힌다... 일단 먼저 Pytorch 학습 코드를 좀 봐보자. outputs = Model(ima..
AI & BigData/Deeplearning
2024. 1. 14. 17:42
반응형
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 프로그래머스
- 정보보안
- linux
- 딥러닝
- LangChain
- 자료구조
- 리눅스
- t검정
- 시간초과
- 보안
- java
- 정보보안기사
- 카카오페이
- 보안기사
- 코딩테스트
- 카카오페이면접후기
- 다이나믹프로그래밍
- 우선순위큐
- Ai
- 백준
- 그리디
- Python
- llm
- springboot
- 분산시스템
- lightsail
- synflooding
- t-test
- FastAPI
- 파이썬
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
글 보관함