| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
| 29 | 30 | 31 |
Tags
- SK AI SUMMIT 2025
- langgraph
- 트랜스포머
- test-time scaling
- re-ranking
- BLEU
- RLHF
- transformer
- context engineering
- Embedding
- gqa
- rotary position embedding
- CoT
- Multi-Head Attention
- Langchain
- fréchet inception distance
- extended thinking
- self-attention
- Engineering at Anthropic
- attention
- PEFT
- reinforcement learning from human feedback
- chain-of-thought
- flashattention
- MQA
- Positional Encoding
- catastrophic forgetting
- model context protocol
- MHA
- 토크나이저
Archives
- Today
- Total
목록Retrieval (1)
AI Engineer 공간 "사부작 사부작"
RAG: 똑똑한 LLM의 비밀 병기, RAG: 실시간 정보로 지능을 증강하다최근 인공지능(AI) 분야, 특히 대규모 언어 모델(LLM)은 놀라운 발전을 거듭하며 우리의 삶에 깊숙이 들어오고 있습니다. 하지만 LLM도 만능은 아닙니다. 학습 데이터에 없는 최신 정보를 모르거나, 때로는 사실과 다른 내용을 그럴듯하게 지어내는 '환각(Hallucination)' 현상을 보이기도 하죠. 이러한 한계를 극복하기 위해 등장한 기술이 바로 검색 증강 생성(Retrieval-Augmented Generation, RAG)입니다.RAG는 LLM이 답변을 생성하기 전에, 마치 똑똑한 조수가 옆에서 관련 자료를 찾아주듯, 외부 지식 소스에서 필요한 정보를 먼저 검색합니다. 그리고 이 검색된 정보를 바탕으로 LLM이 최종 답..
Theory/Retrieval-Augmented Generation
2025. 5. 19. 22:06