| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
| 29 | 30 | 31 |
Tags
- extended thinking
- Embedding
- chain-of-thought
- CoT
- reinforcement learning from human feedback
- fréchet inception distance
- context engineering
- Positional Encoding
- attention
- self-attention
- catastrophic forgetting
- RLHF
- test-time scaling
- 토크나이저
- Langchain
- 트랜스포머
- model context protocol
- re-ranking
- SK AI SUMMIT 2025
- PEFT
- rotary position embedding
- BLEU
- transformer
- Multi-Head Attention
- MHA
- MQA
- gqa
- flashattention
- Engineering at Anthropic
- langgraph
Archives
- Today
- Total
목록TOT (1)
AI Engineer 공간 "사부작 사부작"
연쇄적 사고(CoT)와 사고의 트리(ToT): 단순 답변을 넘어선 LLM의 체계적 추론 혁명대규모 언어 모델(LLM)은 놀라운 속도로 발전하며 우리 삶의 다양한 영역에 영향을 미치고 있습니다. 하지만 복잡한 문제 해결이나 다단계 추론 능력에 있어서는 여전히 개선의 여지가 있죠. 마치 우리가 어려운 문제를 풀 때 단순히 답만 찾는 것이 아니라, 문제 해결 과정을 단계별로 차근차근 생각하는 것처럼 말입니다. LLM도 이러한 인간의 사고 과정을 모방하여 더 높은 수준의 추론 능력을 발휘하도록 돕는 다양한 프롬프팅 기법들이 연구되고 있습니다. 그중에서도 특히 주목받는 두 가지 전략, 바로 연쇄적 사고(Chain-of-Thought, CoT) 프롬프팅과 사고의 트리(Tree-of-Thoughts, ToT) 프롬프..
Theory/Prompting
2025. 5. 29. 08:01