Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
Tags
- chain-of-thought
- PEFT
- Multi-Head Attention
- LLM
- MQA
- Lora
- gqa
- fréchet inception distance
- BLEU
- clip
- re-ranking
- swiglu
- attention
- benchmark
- 트랜스포머
- FID
- catastrophic forgetting
- Rope
- transformer
- Rag
- element-wise multiplication
- flashattention
- MHA
- CoT
- rotary position embedding
- Positional Encoding
- RLHF
- swish gated linear unit
- reinforcement learning from human feedback
- self-attention
Archives
- Today
- Total
목록Theory/Agents (1)
AI Engineer의 '사부작' 공간

LangGraph: LLM, 단순 '텍스트 생성기'를 넘어 '지능형 문제 해결사'로 거듭나다최근 몇 년간 거대 언어 모델(LLM)은 자연어 이해와 생성 능력에서 놀라운 발전을 보여주며, 우리의 삶과 산업 전반에 큰 변화를 가져오고 있습니다. 마치 인간처럼 글을 쓰고, 대화하며, 복잡한 질문에도 답하는 LLM의 능력은 무궁무진한 가능성을 열어주었죠. 하지만 이런 LLM도 만능은 아닙니다. 때로는 앞서 했던 말을 기억하지 못하거나, 복잡한 작업을 스스로 계획하고 실행하는 데 어려움을 겪기도 합니다. 마치 뛰어난 암기력을 가진 학생이지만, 배운 지식을 응용하거나 실제 문제를 해결하는 데는 서툰 모습과 같다고 할까요? 이러한 LLM의 한계를 극복하고, LLM을 단순한 '언어 도구'에서 스스로 목표를 설정하고, ..
Theory/Agents
2025. 5. 30. 08:14