| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | |||
| 5 | 6 | 7 | 8 | 9 | 10 | 11 |
| 12 | 13 | 14 | 15 | 16 | 17 | 18 |
| 19 | 20 | 21 | 22 | 23 | 24 | 25 |
| 26 | 27 | 28 | 29 | 30 |
- test-time scaling
- attention
- model context protocol
- transformer
- RLHF
- re-ranking
- BLEU
- SK AI SUMMIT 2025
- MQA
- Langchain
- Engineering at Anthropic
- 트랜스포머
- rotary position embedding
- Positional Encoding
- catastrophic forgetting
- self-attention
- extended thinking
- Embedding
- Multi-Head Attention
- MHA
- CoT
- context engineering
- fréchet inception distance
- reinforcement learning from human feedback
- langgraph
- chain-of-thought
- flashattention
- PEFT
- 토크나이저
- gqa
- Today
- Total
목록Theory/Prompting (4)
AI Engineer 공간 "사부작 사부작"
대규모 언어 모델(LLM)의 세상은 마치 거대한 도서관과 같습니다. 사서가 매번 같은 책을 찾을 때마다 처음부터 전체 서가를 뒤져야 한다면 얼마나 비효율적일까요? 현재 많은 LLM 서비스에서 비슷한 일이 일어나고 있습니다. 사용자들이 비슷한 프롬프트 템플릿이나 시스템 메시지를 반복 사용할 때마다, 모델은 동일한 계산을 처음부터 다시 수행하고 있는 것입니다. 2023년 예일대학교 연구팀이 발표한 프롬프트 캐시(Prompt Cache)는 이러한 비효율성을 해결하는 혁신적인 접근법입니다. 이 기술은 자주 사용되는 프롬프트 구간의 어텐션 상태를 미리 계산하고 저장해두었다가, 동일한 구간이 다시 등장할 때 재사용함으로써 추론 지연 시간을 획기적으로 단축시킵니다. GPU 기반 추론에서는 최대 8배, CPU 기반 추..
프롬프트: LLM이 스스로 계획하고 도구를 사용하는 ReAct 프레임워크인공지능이 단순히 사람의 질문에 답하는 수동적인 존재에서, 스스로 생각하고 계획을 세워 능동적으로 문제를 해결하는 디지털 파트너로 진화하고 있습니다. 마치 숙련된 비서가 복잡한 업무를 체계적으로 처리하듯, 현대의 대규모 언어모델(LLM)은 이제 프롬프트를 통해 스스로 작업을 계획하고, 필요한 도구를 찾아 사용하며, 실시간으로 정보를 수집하여 최적의 해답을 도출할 수 있게 되었습니다. 이러한 변화의 중심에는 바로 '프롬프트 엔지니어링'과 'ReAct(Reason and Act)' 프레임워크가 있습니다. 단순한 지시문을 넘어 LLM에게 체계적 사고와 전략적 행동을 유도하는 이 기술들은 AI의 활용 범위를 폭발적으로 확장시키고 있습니다. ..
CoT 프롬프트의 그림자: LLM 다단계 추론, 왜 여전히 어려울까?"1부터 100까지 모든 숫자를 더하면 얼마일까요?" ChatGPT에게 이런 질문을 던지면, 마치 수학 선생님처럼 친절하게 단계별로 설명해줍니다. "먼저 등차수열의 합 공식을 사용해보겠습니다. n(n+1)/2 공식에 n=100을 대입하면... 100×101/2 = 5050입니다." 이렇게 차근차근 풀어주는 모습을 보면, 마치 LLM이 진짜로 '생각'하고 '추론'하는 것처럼 느껴집니다. 연쇄적 사고(Chain-of-Thought, CoT)와 같은 프롬프트 엔지니어링 기법은 분명 LLM의 문제 해결 능력을 놀랍도록 향상시켰습니다. 하지만 "기존에 없던 새로운 수학 정리를 증명해보세요"나 "이 소설 속 인물의 심리를 바탕으로 다음 장면을 예측..
연쇄적 사고(CoT)와 사고의 트리(ToT): 단순 답변을 넘어선 LLM의 체계적 추론 혁명대규모 언어 모델(LLM)은 놀라운 속도로 발전하며 우리 삶의 다양한 영역에 영향을 미치고 있습니다. 하지만 복잡한 문제 해결이나 다단계 추론 능력에 있어서는 여전히 개선의 여지가 있죠. 마치 우리가 어려운 문제를 풀 때 단순히 답만 찾는 것이 아니라, 문제 해결 과정을 단계별로 차근차근 생각하는 것처럼 말입니다. LLM도 이러한 인간의 사고 과정을 모방하여 더 높은 수준의 추론 능력을 발휘하도록 돕는 다양한 프롬프팅 기법들이 연구되고 있습니다. 그중에서도 특히 주목받는 두 가지 전략, 바로 연쇄적 사고(Chain-of-Thought, CoT) 프롬프팅과 사고의 트리(Tree-of-Thoughts, ToT) 프롬프..