| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
| 29 | 30 | 31 |
Tags
- re-ranking
- BLEU
- extended thinking
- reinforcement learning from human feedback
- rotary position embedding
- Engineering at Anthropic
- MQA
- Multi-Head Attention
- fréchet inception distance
- MHA
- test-time scaling
- RLHF
- PEFT
- transformer
- Langchain
- Positional Encoding
- SK AI SUMMIT 2025
- flashattention
- model context protocol
- chain-of-thought
- context engineering
- gqa
- langgraph
- self-attention
- attention
- CoT
- 토크나이저
- Embedding
- catastrophic forgetting
- 트랜스포머
Archives
- Today
- Total
목록calibration (1)
AI Engineer 공간 "사부작 사부작"
RLHF 보상 모델 설계의 비밀: 인간 선호를 정확히 읽는 AI의 나침반
RLHF의 심장, 보상 모델: 성공적인 설계를 위한 핵심 가이드인공지능(AI)이 우리 삶 깊숙이 들어오면서, 특히 대형 언어 모델(LLM)은 인간과 자연스럽게 소통하고 복잡한 작업을 수행하는 능력으로 주목받고 있습니다. 이러한 LLM이 더욱 안전하고 유용하게 발전하는 데 핵심적인 역할을 하는 기술이 바로 인간 피드백 기반 강화학습(Reinforcement Learning from Human Feedback, RLHF)입니다. RLHF의 성공은 LLM 파인튜닝 과정에서 마치 '인간의 판단을 대신하는 대리인'과 같은 보상 모델(Reward Model, RM)의 품질에 크게 좌우됩니다.보상 모델은 인간이 어떤 응답을 더 선호하는지를 학습하여, LLM이 생성하는 결과물의 품질을 평가하고 더 나은 방향으로引导합니..
Theory/Training & Fine-Tuning
2025. 5. 17. 16:14