| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
| 29 | 30 | 31 |
Tags
- model context protocol
- reinforcement learning from human feedback
- Engineering at Anthropic
- RLHF
- SK AI SUMMIT 2025
- PEFT
- re-ranking
- gqa
- fréchet inception distance
- Langchain
- attention
- 토크나이저
- chain-of-thought
- MHA
- BLEU
- CoT
- flashattention
- 트랜스포머
- Positional Encoding
- rotary position embedding
- Embedding
- context engineering
- transformer
- Multi-Head Attention
- catastrophic forgetting
- extended thinking
- langgraph
- self-attention
- test-time scaling
- MQA
Archives
- Today
- Total
목록DreamBooth (1)
AI Engineer 공간 "사부작 사부작"
AI 이미지 생성 모델 파인튜닝: 나만의 아티스트를 만드는 기술마치 숙련된 화가가 자신만의 독특한 화풍을 개발해 나가듯이, 사전 훈련된 AI 이미지 생성 모델도 특정 스타일이나 주제에 맞게 조정할 수 있습니다. 이러한 과정을 '파인튜닝(Fine-tuning)'이라고 하는데, 이는 마치 잘 훈련된 요리사에게 특정 지역의 전통 요리법을 추가로 가르쳐 그 분야의 전문가로 만드는 것과 같습니다. 하지만 모든 요리사가 같은 방식으로 새로운 레시피를 배우지 않듯이, AI 모델을 파인튜닝하는 방법도 여러 가지가 있습니다. 각 방법은 맞춤 설정의 깊이, 필요한 데이터 양, 계산 자원 요구량 등에서 서로 다른 특징을 가집니다. 이번 글에서는 이미지 생성 모델의 주요 파인튜닝 기법들과 각각의 특징, 그리고 적용 시 주의해..
Theory/Image Generation-Diffusion
2025. 5. 27. 08:11