본문 바로가기 메뉴 바로가기

Techbrad

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

Techbrad

검색하기 폼
  • Tech (108)
    • MyStory (9)
    • Security (15)
      • 계정 및 권한 (8)
      • 네트워크 (4)
      • 어플리케이션 (3)
    • DevOps (14)
      • Distributed Computing (2)
      • Cloud (2)
      • DB (5)
    • AI & BigData (13)
      • Basic (6)
      • Deeplearning (4)
      • LLM (2)
    • Programming (45)
      • Java (7)
      • Python (6)
      • 자료구조 및 알고리즘 (6)
      • troubleshooting (3)
      • 코딩테스트 (23)
    • Framework (4)
    • 영어공부 (4)
  • 방명록

Transformers (1)
[NLP] Bert 입력값 만들기 Hugging Face

HuggingFace의 transformers를 사용하여 Bert의 입력값을 만들어 보자. 1. 사전 학습된 모델 로드 from_pretrained()를 사용함으로써 pretrained된 모델을 사용할 수 있다. from transformers import BertTokenizer tokenizer = BertTokenizer.from_pretrained("bert-base-uncased", do_lower_case=True) print(tokenizer) PreTrainedTokenizer(name_or_path='bert-base-uncased', vocab_size=30522, model_max_len=512, is_fast=False, padding_side='right', truncation_s..

카테고리 없음 2022. 2. 2. 22:12
이전 1 다음
이전 다음
반응형
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
  • Github
TAG
  • synflooding
  • 정보보안
  • 코딩테스트
  • 딥러닝
  • 다이나믹프로그래밍
  • 자료구조
  • 백준
  • springboot
  • 보안기사
  • 카카오페이면접후기
  • 정보보안기사
  • 카카오페이
  • t-test
  • Ai
  • llm
  • java
  • 그리디
  • lightsail
  • 파이썬
  • 리눅스
  • linux
  • 우선순위큐
  • 시간초과
  • LangChain
  • 분산시스템
  • 보안
  • huggingface
  • FastAPI
  • 프로그래머스
  • Python
more
«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
글 보관함

Blog is powered by Tistory / Designed by Tistory

티스토리툴바