LLM학습·정렬업데이트 2026.04.28

모델 증류

별칭지식 증류Knowledge DistillationTeacher-Student

한 줄 정의

큰 '교사' 모델의 출력을 모방하도록 작은 '학생' 모델을 학습시키는 기법으로, 비싼 모델의 품질을 싼 모델로 옮겨 담는 가장 흔한 방법입니다.

자세히 알아보기

Model Distillation은 큰 모델이 만든 답변을 정답처럼 사용해서, 더 작은 모델을 학습시키는 방법입니다. 작은 모델이 큰 모델의 '판단 패턴'을 흉내내도록 만든다고 보면 직관적입니다. GPT-4o, Claude Haiku, Llama의 작은 버전들 같은 '경량형' 라인업은 거의 다 증류가 들어가 있다고 봐도 됩니다.

마케팅 관점에서 의미 있는 포인트는 'AI 운영비를 잡는 가장 현실적인 도구'라는 사실입니다. 라이브 챗봇·실시간 추천·대규모 콘텐츠 분류처럼 호출량이 큰 작업에서 풀사이즈 모델을 쓰면 비용이 폭발합니다. 증류된 작은 모델로 기본 트래픽을 처리하고, 어려운 케이스만 큰 모델로 넘기는 패턴이 표준이 되고 있습니다.

다만 증류는 '교사 모델만큼 잘하는 작은 모델'을 보장하지 않습니다. 교사 모델의 약점·환각 패턴까지 따라가는 경우도 많고, 도메인 밖 질문에서는 격차가 더 벌어집니다. 평가셋을 잘 만들어두고 케이스별로 비교해보는 게 안전합니다.

관련 용어

우리 브랜드는 AI 답변에 어떻게 등장하고 있을까요?

Villion은 ChatGPT·Perplexity·AI Overview에서 브랜드 인용 현황을 진단하고, 인용률과 언급 점유율을 끌어올리는 작업을 자동화합니다.

무료 진단 받기