딥러닝(DeepLearning)이란? 딥러닝 주제 중에 자연어처리 등 코딩으로 학습을 위주로 하면서 경사하강법, 로스 등 적용되는 원리에 대해 많이 생각해본 적이 없었다. 이번 대학원 강의 수업은 딥러닝의 원리를 파악하는데 techbrad.tistory.com 이전 글에서 딥러닝이란 인공 신경망을 사용해서 데이터를 가장 잘 표현하는 weight를 구하는 것이라는 것을 익혔다. weight를 구하기 위해서 실제 값과 예측 값의 차이를 구한 손실 (Loss)를 활용하는 것이다. 근데 이게 직관적으로 와닿진 않는다. 손실은 x.xxxx와 같이 소수점으로 표현이 될텐데 이걸로 가중치를 어떻게 업데이트 할까? 감이 안잡힌다... 일단 먼저 Pytorch 학습 코드를 좀 봐보자. outputs = Model(ima..
딥러닝 주제 중에 자연어처리 등 코딩으로 학습을 위주로 하면서 경사하강법, 로스 등 적용되는 원리에 대해 많이 생각해본 적이 없었다. 이번 대학원 강의 수업은 딥러닝의 원리를 파악하는데 많은 도움이 되었다. 딥러닝 목표는 데이터를 입력했을때 출력값에 대해 예상 값과 실제 값과의 차이를 최소화하는 학습 방법? 이다. 굉장히 단순해 보인다 ^^; 고양이 사진을 데이터로 입력하고 예상 값은 고양이라는 레이블인데 개라는 레이블이 출력이 되었을 때의 차이를 최소화 하는 것이다. 대충 감이 오는데 사진의 차이를 구한다? 이거를 어떻게 학습하지? 어떤 방식인지 많은 의문이 생겼다! "모든 입력 값은 숫자로 변환되어 차이를 구하게 된다." 고양이 사진이나 텍스트 등 입력값은 컴퓨터가 인식할 수 있도록 숫자로 입력된다...
LSTM은 시퀀스 데이터에서 다음을 예측하는데 활용한다. Bidirectional LSTM은 이전 데이터 뿐만 아니라 다음의 데이터를 통해 이전에 뭐가 나올지 예측을 하는 모델이다. 예를 들어 나는 __ 이라는 문장이 있다면 나는 다음에 무엇이 나올지 예측하는 것은 어렵다. 하지만 나는 __ 먹었다. 와 같은 문장이 있다면 “먹었다”를 통해 목적어에 먹는 음식이 나온다는 것을 예측할 수 있다. 그래서 Bidirectional LSTM모델은 앞에서 뒤로 한방향, 뒤에서 앞으로 한방향 양방향으로 학습하여 모델의 성능을 높인다. 출력은 양 방향의 값을 concatenate 하여 word vector를 출력한다. keras 홈페이지에 있는 코드를 보면 아래와 같다. model = Sequential() mode..
인공 신경망의 입력데이터로는 1차원의 데이터가 필요. 한 장의 컬러사진은 3차원, 여러 장은 4차원이기 때문에 다차원의 데이터를 1차원의 데이터로 변환해야한다. 차원을 줄이기 때문에 공간정보가 손실이 되는데 공간정보를 유지한채 학습하는 모델이 CNN이다. 예제로 mnist 데이터의 형태를 보면 28 X 28 이미지가 60,000개가 있는 3차원 데이터로 되어 있다. (색깔이 추가되면 4차원 가능) CNN은 다차원의 데이터를 Convolution layer와 Subsampling layer의 반복하면서 이미지의 크기와 공간을 줄여가며 1차원의 데이터로 표한하게 됩니다. 위의 Convolution쪽을 케라스(Keras)로 살펴보자면 아래의 코드와 같다. 처음에 Conv2D(32, (3, 3)은 28, 28,..
- Total
- Today
- Yesterday
- linux
- llm
- 프로그래머스
- 카카오페이면접후기
- FastAPI
- springboot
- 리눅스
- Ai
- t검정
- 카카오페이
- LangChain
- 백준
- 파이썬
- 분산시스템
- t-test
- 코딩테스트
- Python
- 그리디
- 정보보안
- 자료구조
- 보안기사
- 시간초과
- java
- 우선순위큐
- 보안
- 정보보안기사
- synflooding
- lightsail
- 다이나믹프로그래밍
- 딥러닝
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |