| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
| 29 | 30 | 31 |
Tags
- 토크나이저
- flashattention
- context engineering
- MQA
- SK AI SUMMIT 2025
- langgraph
- extended thinking
- test-time scaling
- MHA
- Embedding
- catastrophic forgetting
- fréchet inception distance
- Langchain
- CoT
- transformer
- Engineering at Anthropic
- gqa
- self-attention
- re-ranking
- Positional Encoding
- RLHF
- BLEU
- chain-of-thought
- attention
- Multi-Head Attention
- reinforcement learning from human feedback
- PEFT
- rotary position embedding
- model context protocol
- 트랜스포머
Archives
- Today
- Total
목록BPE (1)
AI Engineer 공간 "사부작 사부작"
LLM 성능의 또 다른 핵심 키 포인트: 데이터 정제, 전처리, 토크나이저
LLM 성능의 일등 공신: 데이터 정제, 전처리, 그리고 토크나이저 이야기대규모 언어 모델(LLM)이 세상을 놀라게 하는 성능을 보여주는 요즘, 그 비결에 대한 궁금증도 커지고 있습니다. 뛰어난 알고리즘과 방대한 컴퓨팅 자원도 중요하지만, LLM 학습의 근간에는 바로 '데이터'가 있습니다. 마치 농부가 좋은 씨앗을 고르고 땅을 정성껏 가꾸어야 풍성한 수확을 얻을 수 있듯이, LLM 역시 고품질의 데이터를 어떻게 다루느냐에 따라 그 성능이 크게 좌우됩니다. 데이터에 포함된 미세한 결함이나 편향까지도 모델이 그대로 학습하기 때문입니다.이번 글에서는 LLM의 성능을 결정짓는 핵심 요소인 데이터 정제, 전처리 과정과 토크나이저 선택이 모델 훈련 및 최종 성능에 어떤 영향을 미치는지, 그 중요성과 구체적인 방법들..
Theory/Training & Fine-Tuning
2025. 5. 17. 15:21