| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
| 29 | 30 | 31 |
Tags
- BLEU
- langgraph
- Multi-Head Attention
- Embedding
- gqa
- SK AI SUMMIT 2025
- 토크나이저
- transformer
- attention
- RLHF
- catastrophic forgetting
- extended thinking
- MHA
- self-attention
- CoT
- reinforcement learning from human feedback
- chain-of-thought
- Positional Encoding
- Engineering at Anthropic
- context engineering
- 트랜스포머
- flashattention
- fréchet inception distance
- model context protocol
- test-time scaling
- re-ranking
- Langchain
- MQA
- rotary position embedding
- PEFT
Archives
- Today
- Total
목록thinking (1)
AI Engineer 공간 "사부작 사부작"
AI가 더 깊이 생각하게 만드는 기술: 테스트-타임 스케일링과 예산 강제인공지능(AI)의 세계는 마치 끊임없이 진화하는 생명체와 같습니다. 더 똑똑하고, 더 유능한 AI를 만들기 위한 연구는 하루가 다르게 새로운 지평을 열고 있죠. 최근 AI 분야에서 가장 주목받는 혁신 중 하나는 모델이 문제의 난이도에 따라 '생각하는 시간'을 조절할 수 있게 만드는 기술입니다. 우리가 간단한 질문에는 즉시 답하지만, 어려운 수학 문제나 복잡한 코드를 디버깅할 때는 더 많은 시간과 정신력을 쏟는 것과 마찬가지입니다. 이러한 유연성을 AI에 부여하는 핵심 개념이 바로 테스트-타임 스케일링(Test-Time Scaling)입니다. 이는 모델을 더 크게 만드는 대신, 이미 훈련된 모델이 답변을 생성하는 '테스트 시점'에 더 ..
Theory/Agents
2025. 6. 27. 08:20