| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
| 29 | 30 | 31 |
Tags
- Multi-Head Attention
- SK AI SUMMIT 2025
- flashattention
- chain-of-thought
- fréchet inception distance
- rotary position embedding
- test-time scaling
- Positional Encoding
- 토크나이저
- catastrophic forgetting
- reinforcement learning from human feedback
- gqa
- MHA
- BLEU
- Langchain
- RLHF
- Embedding
- transformer
- Engineering at Anthropic
- 트랜스포머
- context engineering
- PEFT
- self-attention
- re-ranking
- model context protocol
- extended thinking
- langgraph
- CoT
- attention
- MQA
Archives
- Today
- Total
목록ragas (1)
AI Engineer 공간 "사부작 사부작"
RAG 성능 평가: LLM의 신뢰성과 잠재력을 극대화하는 핵심 전략검색 증강 생성(Retrieval-Augmented Generation, RAG)은 대규모 언어 모델(LLM)이 외부 지식 소스를 활용하여 보다 정확하고 맥락에 맞는 답변을 생성하도록 하는 핵심 기술입니다. RAG 시스템은 사용자의 질의에 대응하여 관련 정보를 검색하고(Retrieval), 이를 기반으로 응답을 생성(Generation)하는 두 단계로 구성됩니다. 이러한 강력한 기능으로 인해 RAG는 복잡한 질의응답, 콘텐츠 생성, 연구 지원 등 다양한 분야에서 활용 가능성을 높이고 있지만, 그 성능을 체계적으로 평가하고 관리하는 것은 시스템의 신뢰성과 효용성을 보장하는 데 필수적입니다. 본 글에서는 RAG 성능 평가의 중요성과 핵심 차원..
Theory/Retrieval-Augmented Generation
2025. 5. 21. 21:25