온도
한 줄 정의
LLM이 다음 토큰을 고를 때 얼마나 무작위성을 허용할지 조절하는 파라미터로, 값이 낮으면 일관되고 높으면 창의적인 답이 나옵니다.
자세히 알아보기
Temperature는 LLM이 답을 만들 때 '확률이 높은 토큰만 고를지, 약간 모험할지'를 조절하는 값입니다. 0에 가까울수록 거의 같은 답이 나오고, 1을 넘으면 창의적이지만 들쭉날쭉한 답이 나옵니다. 같은 질문에도 답이 매번 달라지는 이유의 절반은 이 값에 있습니다.
마케팅 관점에서 의미 있는 포인트는 사용 목적에 따라 적정값이 다르다는 것입니다. 'FAQ 자동응답·고객지원'은 0.2~0.4 정도의 낮은 값으로 일관성을 잡고, '광고 카피 아이디어 브레인스토밍'은 0.8~1.0으로 다양성을 늘리는 식입니다.
현장에선 모델별로 권장값이 다르고, 일부 최신 모델(예: GPT-5의 일부 변형)은 temperature를 1.0으로 고정해 다른 값을 받지 않기도 합니다. 즉, 단순히 '낮추면 정확하다'는 가정만으로는 부족하고, 문서를 한 번 확인해야 합니다.
관련 용어
LLM
방대한 텍스트 데이터로 학습돼 사람의 언어를 이해하고 생성하는 대규모 신경망 모델로, ChatGPT·Claude·Gemini의 기반이 됩니다.
LLM토큰
LLM이 텍스트를 처리하는 최소 단위로, 보통 단어나 단어 일부에 해당하며 LLM 비용·길이 한도가 모두 토큰 기준으로 계산됩니다.
LLM프롬프트 엔지니어링
LLM이 원하는 결과를 더 잘 내도록 입력 문구를 설계하는 기술이자 기술 분야로, 모델을 직접 학습시키지 않고도 출력 품질을 크게 바꿀 수 있습니다.
LLM구조화 출력
LLM이 자유 텍스트 대신 미리 정의한 JSON·스키마 구조에 맞춰 답하도록 강제하는 기능으로, AI를 시스템에 안정적으로 연결할 때 필수적입니다.
LLM함수 호출
LLM이 자연어 답변 대신 미리 정의된 함수·API를 호출해 실제 작업을 수행하게 하는 인터페이스로, AI 에이전트의 핵심 메커니즘입니다.
우리 브랜드는 AI 답변에 어떻게 등장하고 있을까요?
Villion은 ChatGPT·Perplexity·AI Overview에서 브랜드 인용 현황을 진단하고, 인용률과 언급 점유율을 끌어올리는 작업을 자동화합니다.
무료 진단 받기