| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | |||
| 5 | 6 | 7 | 8 | 9 | 10 | 11 |
| 12 | 13 | 14 | 15 | 16 | 17 | 18 |
| 19 | 20 | 21 | 22 | 23 | 24 | 25 |
| 26 | 27 | 28 | 29 | 30 |
- Multi-Head Attention
- chain-of-thought
- PEFT
- Embedding
- Langchain
- model context protocol
- 토크나이저
- gqa
- Positional Encoding
- fréchet inception distance
- RLHF
- test-time scaling
- self-attention
- Engineering at Anthropic
- attention
- BLEU
- MQA
- context engineering
- extended thinking
- CoT
- langgraph
- rotary position embedding
- MHA
- reinforcement learning from human feedback
- re-ranking
- transformer
- 트랜스포머
- catastrophic forgetting
- flashattention
- SK AI SUMMIT 2025
- Today
- Total
목록langgraph (2)
AI Engineer 공간 "사부작 사부작"
Langgraph(LangChain)으로 멀티 LLM 에이전트 비용 추적하기: response_metadata 완벽 분석AI 에이전트, 특히 여러 LLM이 협력하는 멀티 에이전트 시스템을 개발하다 보면 필연적으로 마주하는 질문이 있습니다. "그래서, 이 작업에 비용이 얼마나 들었지?" OpenAI, Anthropic, Google 등 다양한 LLM을 오가며 최적의 결과를 만드는 LangGraph의 유연성은 강력한 무기이지만, 동시에 비용 추적을 복잡하게 만드는 요인이 되기도 합니다. 어떤 모델이 얼마만큼의 토큰을 사용했는지 정확히 알아야만 서비스의 운영 비용을 산정하고 최적화할 수 있기 때문입니다. 이 복잡한 비용 추적의 실마리를 풀어줄 핵심 열쇠가 바로 LangChain의 response_metadat..
LangGraph: LLM, 단순 '텍스트 생성기'를 넘어 '지능형 문제 해결사'로 거듭나다최근 몇 년간 거대 언어 모델(LLM)은 자연어 이해와 생성 능력에서 놀라운 발전을 보여주며, 우리의 삶과 산업 전반에 큰 변화를 가져오고 있습니다. 마치 인간처럼 글을 쓰고, 대화하며, 복잡한 질문에도 답하는 LLM의 능력은 무궁무진한 가능성을 열어주었죠. 하지만 이런 LLM도 만능은 아닙니다. 때로는 앞서 했던 말을 기억하지 못하거나, 복잡한 작업을 스스로 계획하고 실행하는 데 어려움을 겪기도 합니다. 마치 뛰어난 암기력을 가진 학생이지만, 배운 지식을 응용하거나 실제 문제를 해결하는 데는 서툰 모습과 같다고 할까요? 이러한 LLM의 한계를 극복하고, LLM을 단순한 '언어 도구'에서 스스로 목표를 설정하고, ..