
포티투닷에서 LLM 엔지니어 포지션이 열려서 지원을 했다.가장 먼저 간단한 전화 스크리닝이 진행되었고 코딩테스트 2문제를 보았다.그리고 나서 아래와 같이 면접 AI Agent 포지션에 면접을 볼 수 있는 기회를 얻었다. 면접 시간은 총 1시간 정도 보았으며 개인 기본 이력, 프로젝트 관련 경험, 회사 생활 순서로 면접을 진행했다.회사 생활을 묻는 질문에서 많이 절었다. "본인에게 잘 맞는 리더스타일?" 과 같은 질문은 사실 깊이 생각해보지 못했다.이번 계기로 나에 대해 다시 한번 생각해보고 성과를 내기 위해 나와 맞는 사람이 어떤 사람인지 내가 어떤 역할을 잘 수행해 낼 수 있는지에 대해 생각해봐야겠다. 결과는 탈락이지만 좋은 경험이였고 회사에 나를 맞추는 것이 아닌 나에게 맞는 회사를 찾기 위해 내..
HuggingFace의 transformers를 사용하여 Bert의 입력값을 만들어 보자. 1. 사전 학습된 모델 로드 from_pretrained()를 사용함으로써 pretrained된 모델을 사용할 수 있다. from transformers import BertTokenizer tokenizer = BertTokenizer.from_pretrained("bert-base-uncased", do_lower_case=True) print(tokenizer) PreTrainedTokenizer(name_or_path='bert-base-uncased', vocab_size=30522, model_max_len=512, is_fast=False, padding_side='right', truncation_s..

인공 신경망의 입력데이터로는 1차원의 데이터가 필요. 한 장의 컬러사진은 3차원, 여러 장은 4차원이기 때문에 다차원의 데이터를 1차원의 데이터로 변환해야한다. 차원을 줄이기 때문에 공간정보가 손실이 되는데 공간정보를 유지한채 학습하는 모델이 CNN이다. 예제로 mnist 데이터의 형태를 보면 28 X 28 이미지가 60,000개가 있는 3차원 데이터로 되어 있다. (색깔이 추가되면 4차원 가능) CNN은 다차원의 데이터를 Convolution layer와 Subsampling layer의 반복하면서 이미지의 크기와 공간을 줄여가며 1차원의 데이터로 표한하게 됩니다. 위의 Convolution쪽을 케라스(Keras)로 살펴보자면 아래의 코드와 같다. 처음에 Conv2D(32, (3, 3)은 28, 28,..
- Total
- Today
- Yesterday
- 딥러닝
- synflooding
- 코딩테스트
- 정보보안기사
- t검정
- t-test
- 카카오페이
- lightsail
- 백준
- 리눅스
- 자료구조
- 프로그래머스
- linux
- Python
- springboot
- LangChain
- 정보보안
- 파이썬
- 시간초과
- Ai
- 분산시스템
- 보안
- java
- llm
- 카카오페이면접후기
- FastAPI
- 보안기사
- 우선순위큐
- 그리디
- 다이나믹프로그래밍
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |