LLM추론·인터페이스업데이트 2026.04.28

온도

별칭샘플링 온도Sampling Temperature

한 줄 정의

LLM이 다음 토큰을 고를 때 얼마나 무작위성을 허용할지 조절하는 파라미터로, 값이 낮으면 일관되고 높으면 창의적인 답이 나옵니다.

자세히 알아보기

Temperature는 LLM이 답을 만들 때 '확률이 높은 토큰만 고를지, 약간 모험할지'를 조절하는 값입니다. 0에 가까울수록 거의 같은 답이 나오고, 1을 넘으면 창의적이지만 들쭉날쭉한 답이 나옵니다. 같은 질문에도 답이 매번 달라지는 이유의 절반은 이 값에 있습니다.

마케팅 관점에서 의미 있는 포인트는 사용 목적에 따라 적정값이 다르다는 것입니다. 'FAQ 자동응답·고객지원'은 0.2~0.4 정도의 낮은 값으로 일관성을 잡고, '광고 카피 아이디어 브레인스토밍'은 0.8~1.0으로 다양성을 늘리는 식입니다.

현장에선 모델별로 권장값이 다르고, 일부 최신 모델(예: GPT-5의 일부 변형)은 temperature를 1.0으로 고정해 다른 값을 받지 않기도 합니다. 즉, 단순히 '낮추면 정확하다'는 가정만으로는 부족하고, 문서를 한 번 확인해야 합니다.

관련 용어

우리 브랜드는 AI 답변에 어떻게 등장하고 있을까요?

Villion은 ChatGPT·Perplexity·AI Overview에서 브랜드 인용 현황을 진단하고, 인용률과 언급 점유율을 끌어올리는 작업을 자동화합니다.

무료 진단 받기