지식 증류
한 줄 정의
큰 '교사 모델'의 출력을 작은 '학생 모델'이 모방하도록 학습시켜, 성능은 최대한 보존하면서 비용과 지연을 줄이는 압축 기법입니다.
자세히 알아보기
Knowledge Distillation은 큰 모델(Teacher)이 만든 답변·확률 분포·임베딩을 작은 모델(Student)이 학습 타깃으로 삼는 방식입니다. 라벨이 0/1인 일반 학습과 달리, 'teacher가 어떤 답에 얼마나 자신 있어 했는지' 같은 풍부한 신호를 활용한다는 점이 차별점입니다.
실무에서 디스틸레이션이 매력적인 이유는 단순합니다. 'GPT-4급의 80% 품질을 2~3% 비용에 돌리는 자체 모델'이라는 카드가 가능해지기 때문입니다. OpenAI, Anthropic, Google 모두 작은 모델 라인업(예: Haiku, Mini, Flash)을 여기에 가깝게 운용한다고 공개적으로 언급해 왔습니다.
주의할 점은 라이선스입니다. 일부 상용 API는 출력으로 경쟁 모델을 학습시키는 행위를 약관으로 금지합니다. 자체 디스틸레이션을 검토할 때는 '데이터 출처가 약관상 학습에 쓸 수 있는가'를 가장 먼저 확인해야 합니다.
관련 용어
인스트럭션 튜닝
베이스 LLM을 '지시문을 따라 답변하는' 형태로 미세조정하는 학습 단계로, 사용자가 자연스럽게 명령할 수 있게 만드는 핵심 과정입니다.
LLM토크나이제이션
텍스트를 모델이 다룰 수 있는 토큰 단위로 잘게 쪼개는 전처리 단계로, 모델 비용·맥락 길이·다국어 성능에 직접 영향을 줍니다.
LLMLLM 채점자
LLM이 다른 LLM의 답변을 채점·비교하도록 시켜 평가를 자동화하는 방식으로, 사람 라벨링의 한계를 보완하는 표준 기법이 됐습니다.
LLM스트리밍 응답
LLM이 답변을 한 번에 끝내고 반환하는 대신, 토큰이 생성되는 즉시 클라이언트로 흘려보내는 응답 방식입니다.
LLMLLM
방대한 텍스트 데이터로 학습돼 사람의 언어를 이해하고 생성하는 대규모 신경망 모델로, ChatGPT·Claude·Gemini의 기반이 됩니다.
우리 브랜드는 AI 답변에 어떻게 등장하고 있을까요?
Villion은 ChatGPT·Perplexity·AI Overview에서 브랜드 인용 현황을 진단하고, 인용률과 언급 점유율을 끌어올리는 작업을 자동화합니다.
무료 진단 받기