| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
| 29 | 30 | 31 |
Tags
- self-attention
- reinforcement learning from human feedback
- test-time scaling
- langgraph
- rotary position embedding
- chain-of-thought
- Embedding
- CoT
- BLEU
- 트랜스포머
- Engineering at Anthropic
- gqa
- context engineering
- fréchet inception distance
- extended thinking
- Langchain
- attention
- model context protocol
- RLHF
- catastrophic forgetting
- MHA
- Multi-Head Attention
- MQA
- re-ranking
- transformer
- flashattention
- SK AI SUMMIT 2025
- Positional Encoding
- PEFT
- 토크나이저
Archives
- Today
- Total
목록TF-IDF (1)
AI Engineer 공간 "사부작 사부작"
더 똑똑한 검색을 찾아서: 어휘적, 의미적, 하이브리드 검색 완벽 가이드정보의 바다에서 원하는 정보를 정확하고 빠르게 찾는 것은 마치 숨은그림찾기와 같습니다. 특히 RAG(Retrieval-Augmented Generation) 시스템처럼 방대한 데이터 속에서 가장 관련성 높은 정보를 찾아내는 검색기의 역할은 무엇보다 중요합니다. 검색기는 마치 똑똑한 정보 탐험가처럼, 사용자의 질문 의도를 파악하고 최적의 답변을 이끌어낼 단서를 찾아냅니다. 하지만 이 탐험가들이 정보를 찾는 방식은 한 가지가 아닙니다. 마치 각기 다른 도구와 전략을 사용하는 탐험가들처럼, 검색기도 어휘적 검색, 의미적 검색, 그리고 이 둘을 결합한 하이브리드 검색 등 다양한 방법으로 정보를 탐색합니다. 이번 글에서는 이 세 가지 주요 검..
Theory/Retrieval-Augmented Generation
2025. 5. 20. 08:25