Published on2026년 1월 19일CoT 대신 Structured Output로 환각 줄이기aiChain-of-Thought를 길게 요구하지 않고도 환각을 줄이는 방법은 많습니다. 이 글은 Structured Output(스키마 기반 출력)로 검증 가능성을 높이고, 파이프라인에서 오류를 조기에 차단하는 실전 패턴을 정리합니다.Read more →
Published on2026년 1월 19일RAG 환각 줄이기 - HyDE+rerank 튜닝 실전aiHyDE로 검색 질의를 보강하고 rerank로 근거 문서를 정밀 선별해 RAG 환각을 체계적으로 줄이는 튜닝 절차를 정리합니다. 오프라인 평가·임계값·프롬프트까지 함께 다룹니다.Read more →
Published on2026년 1월 19일SDXL LoRA 학습이 망가질 때 원인 7가지aiSDXL LoRA 학습이 갑자기 수렴하지 않거나 결과물이 붕괴될 때, 가장 흔한 7가지 원인을 데이터·설정·옵티마이저·정밀도·캐시 관점에서 진단합니다. 재현 가능한 체크리스트와 코드 스니펫으로 빠르게 원인을 좁혀봅니다.Read more →
Published on2026년 1월 19일Stable Diffusion VRAM OOM - xFormers·Tiling·FP8 최적화aiStable Diffusion 실행 중 VRAM OOM이 나는 원인을 메모리 관점에서 분해하고, xFormers·VAE tiling·FP8까지 단계별로 적용하는 실전 최적화 체크리스트를 정리합니다.Read more →
Published on2026년 1월 19일Transformers 로컬 LLM CUDA OOM, 4bit·KV캐시 최적화aiTransformers로 로컬 LLM을 돌릴 때 자주 터지는 CUDA OOM을 4bit 로딩, KV 캐시/컨텍스트 길이 튜닝, attention 구현 선택으로 줄이는 실전 가이드입니다.Read more →