| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
| 29 | 30 | 31 |
Tags
- reinforcement learning from human feedback
- RLHF
- gqa
- rotary position embedding
- model context protocol
- BLEU
- MHA
- test-time scaling
- chain-of-thought
- extended thinking
- 트랜스포머
- 토크나이저
- catastrophic forgetting
- fréchet inception distance
- Embedding
- Langchain
- PEFT
- attention
- CoT
- Positional Encoding
- MQA
- transformer
- re-ranking
- langgraph
- SK AI SUMMIT 2025
- Engineering at Anthropic
- self-attention
- context engineering
- Multi-Head Attention
- flashattention
Archives
- Today
- Total
목록ai agent framework (1)
AI Engineer 공간 "사부작 사부작"
LangGraph: LLM, 단순 '텍스트 생성기'를 넘어 '지능형 문제 해결사'로 거듭나다최근 몇 년간 거대 언어 모델(LLM)은 자연어 이해와 생성 능력에서 놀라운 발전을 보여주며, 우리의 삶과 산업 전반에 큰 변화를 가져오고 있습니다. 마치 인간처럼 글을 쓰고, 대화하며, 복잡한 질문에도 답하는 LLM의 능력은 무궁무진한 가능성을 열어주었죠. 하지만 이런 LLM도 만능은 아닙니다. 때로는 앞서 했던 말을 기억하지 못하거나, 복잡한 작업을 스스로 계획하고 실행하는 데 어려움을 겪기도 합니다. 마치 뛰어난 암기력을 가진 학생이지만, 배운 지식을 응용하거나 실제 문제를 해결하는 데는 서툰 모습과 같다고 할까요? 이러한 LLM의 한계를 극복하고, LLM을 단순한 '언어 도구'에서 스스로 목표를 설정하고, ..
Theory/Agents
2025. 5. 30. 08:14