티스토리 뷰

AWS Cloud/MLA

BERT

애드팍 2025. 4. 21. 15:13
728x90

BERT = Bidirectional Encoder Representations from Transformers

한 문장의 의미를 양방향으로 이해하는 딥러닝 기반 모델


✅ 1. 뭐가 특별한가?

  • 과거 모델(RNN, LSTM 등)은 문장을 왼쪽 → 오른쪽 방향으로만 이해함
  • BERT는 양방향(Bidirectional) → 단어의 앞뒤 문맥을 동시에 고려함

예:
"He went to the bank to deposit money."

  • bank은 앞뒤 문맥이 있어야 **“금융기관”**인지 **“강둑”**인지 판단 가능
    → BERT는 이걸 잘 구분함

✅ 2. 사전학습(Pretraining) + 파인튜닝(Finetuning)

단계 설명
Pretraining 대규모 Wikipedia 등으로 미리 언어 이해 학습
Fine-tuning 구체적인 작업(예: 감정 분류)에 맞춰 추가 학습

🟡 즉, “기본 영어 잘 아는 애”를 데려다가 “감정 분류”만 추가로 시키는 느낌


✅ 3. 어떤 작업에 쓰이나?

작업 설명
텍스트 분류 스팸 vs 정상, 긍정 vs 부정 등
문장 유사도 두 문장 얼마나 비슷한지
질의 응답 (QA) 질문 → 문서에서 정답 뽑기
개체명 인식 (NER) 문장에서 사람, 장소 등 뽑기

📌 Hugging Face에서는 BERT 기반 모델들을 아주 쉽게 사용 가능 (pipeline('sentiment-analysis') 등)

 

📌 정리

항목 내용
정식 명칭 Bidirectional Encoder Representations from Transformers
구조 Transformer Encoder 기반
장점 앞뒤 문맥을 함께 이해
사용 분류, QA, 요약 등 대부분의 NLP
구현 Hugging Face Transformers 라이브러리로 바로 사용 가능
728x90

'AWS Cloud > MLA' 카테고리의 다른 글

자주 쓰는 분석 요소 및 시각화 기법  (0) 2025.04.21
Transformer  (0) 2025.04.21
Hugging Face Transformers  (0) 2025.04.21
PyTorch  (0) 2025.04.21
TensorFlow  (0) 2025.04.21
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
«   2025/04   »
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30
글 보관함