| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
| 29 | 30 | 31 |
Tags
- 트랜스포머
- context engineering
- self-attention
- rotary position embedding
- gqa
- transformer
- catastrophic forgetting
- 토크나이저
- BLEU
- PEFT
- Multi-Head Attention
- Embedding
- reinforcement learning from human feedback
- Engineering at Anthropic
- re-ranking
- CoT
- Positional Encoding
- chain-of-thought
- model context protocol
- extended thinking
- test-time scaling
- langgraph
- MQA
- fréchet inception distance
- SK AI SUMMIT 2025
- flashattention
- attention
- RLHF
- Langchain
- MHA
Archives
- Today
- Total
목록sandbox (1)
AI Engineer 공간 "사부작 사부작"
AI 에이전트를 만드는 일은 능력 있는 비서를 고용하는 것과 비슷합니다. 처음엔 이메일 확인만 시키다가, 점점 구글 드라이브, 세일즈포스, 슬랙, 깃허브 등 수십 개의 도구를 다루게 만듭니다. 문제는, 이 비서가 각 도구를 쓰기 전에 설명서 전체를 매번 통째로 읽어야 하고, 한 도구에서 다른 도구로 자료를 옮길 때도 모든 내용을 머릿속에 다시 넣었다 빼야 한다면 어떻게 될까요? 당연히 느리고, 비싸고, 비효율적입니다. 오늘날 많은 AI 에이전트가 바로 이런 방식으로 움직입니다. MCP(Model Context Protocol)는 AI 에이전트를 외부 시스템에 연결하는 개방형 표준이며, 이미 업계에서 빠르게 채택되고 있습니다. 하지만 수십·수백 개의 MCP 서버를 붙이면서 토큰 소비가 폭증하는 문제가 드러..
Theory/Agents
2025. 11. 17. 16:33