| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
| 29 | 30 | 31 |
Tags
- flashattention
- transformer
- context engineering
- test-time scaling
- gqa
- reinforcement learning from human feedback
- PEFT
- extended thinking
- model context protocol
- CoT
- self-attention
- fréchet inception distance
- Positional Encoding
- Engineering at Anthropic
- RLHF
- 토크나이저
- chain-of-thought
- Langchain
- MQA
- MHA
- 트랜스포머
- attention
- SK AI SUMMIT 2025
- langgraph
- catastrophic forgetting
- re-ranking
- Embedding
- BLEU
- Multi-Head Attention
- rotary position embedding
Archives
- Today
- Total
목록reasoning model (1)
AI Engineer 공간 "사부작 사부작"
클로드(Claude)의 생각 엿보기: Extended Thinking으로 투명하고 강력한 AI 에이전트 만들기
클로드(Claude)의 생각 엿보기: Extended Thinking으로 투명하고 강력한 AI 에이전트 만들기복잡한 AI 멀티 에이전트 시스템을 구축할 때, 우리는 종종 "이 AI는 왜 이런 결정을 내렸을까?"라는 근본적인 질문에 부딪힙니다. 최종 결과물만으로는 그 과정의 타당성을 신뢰하기 어렵기 때문이죠. 마치 학생이 수학 문제의 답만 덜렁 적어냈을 때, 풀이 과정 없이는 정답에 이르기까지의 논리를 알 수 없는 것과 같습니다. 이러한 '블랙박스' 문제를 해결하고 AI의 투명성과 신뢰도를 높이기 위해 등장한 것이 바로 '추론 모델(Reasoning Model)'의 역할이며, 앤트로픽(Anthropic)의 클로드(Claude)가 제공하는 'Extended Thinking'은 이 개념을 가장 잘 구현한 기능..
Theory/Agents
2025. 7. 4. 08:17