파인튜닝
한 줄 정의
이미 사전학습된 LLM을 특정 도메인·작업·말투에 맞춰 추가 학습시키는 과정으로, 자사 데이터에 맞춘 AI를 만들 때 가장 자주 쓰는 방식입니다.
자세히 알아보기
Fine-tuning은 이미 학습된 LLM을 더 작은, 특정 목적의 데이터셋으로 추가 학습시키는 과정입니다. 예를 들어 자사 고객지원 대화 로그로 챗봇을 튜닝하거나, 브랜드 톤에 맞게 답변 스타일을 조정하는 식입니다. 사전학습이 '대학 교양과정'이라면 파인튜닝은 '회사 OJT'라고 보면 직관적입니다.
마케팅 관점에서 파인튜닝이 주목받는 이유는 'AI가 우리 회사 답변을 우리답게 하도록' 만들 수 있기 때문입니다. 다만 비용·운영 부담이 있어, 요즘은 RAG로 지식만 외부에서 가져오고 모델 자체는 그대로 쓰는 패턴이 더 흔합니다.
솔직히 말하면, 대부분의 마케팅 케이스에서는 파인튜닝까지 가지 않아도 시스템 프롬프트·few-shot·RAG 조합으로 충분한 경우가 많습니다. 파인튜닝이 진짜 필요한 시점은 대량의 라벨 데이터가 있고, 출력 일관성이 매우 중요할 때입니다.
관련 용어
사전학습
방대한 텍스트 데이터로 LLM의 기본 언어 능력을 처음부터 학습시키는 단계로, 모델이 '세상 지식'을 흡수하는 핵심 과정입니다.
LLMRLHF
사람이 응답을 평가·비교한 데이터를 보상 신호로 삼아 LLM을 더 유용하고 안전하게 다듬는 학습 방식으로, ChatGPT 품질의 핵심 비결입니다.
LLMAI 정렬
AI가 사람의 의도·가치·안전 기준에 맞게 행동하도록 만드는 작업과 연구 분야 전체를 가리킵니다.
LLMRAG
LLM이 답하기 전에 외부 문서나 검색 결과를 가져와 근거로 활용하는 구조로, ChatGPT Search·Perplexity 같은 AI 검색 답변의 핵심 기법입니다.
LLM오픈 웨이트 모델
모델의 가중치(weights) 파일이 공개돼 누구나 다운로드해 자체 인프라에서 돌릴 수 있는 LLM을 가리킵니다. Llama·Mistral·Qwen이 대표적입니다.
우리 브랜드는 AI 답변에 어떻게 등장하고 있을까요?
Villion은 ChatGPT·Perplexity·AI Overview에서 브랜드 인용 현황을 진단하고, 인용률과 언급 점유율을 끌어올리는 작업을 자동화합니다.
무료 진단 받기