컨텍스트 로트
한 줄 정의
컨텍스트가 길어질수록 LLM이 정보를 점점 덜 정확하게 활용하는 현상으로, '큰 컨텍스트 윈도우 = 품질 보장'이 아니라는 사실의 핵심 근거입니다.
자세히 알아보기
Context Rot은 컨텍스트 길이가 늘어날수록 모델이 안에 들어 있는 정보를 제대로 못 쓰는 현상을 가리킵니다. 100만 토큰까지 받는다고 해서 100만 토큰 안의 모든 사실을 똑같이 잘 끌어다 쓰는 건 아닙니다. 길어질수록 중요한 디테일을 놓치거나, 앞부분 정보에만 과도하게 의존하거나, 충돌하는 정보를 그대로 섞어서 답하기도 합니다.
마케팅 관점에서 의미 있는 포인트는 단순합니다. '긴 PDF·매뉴얼을 한 번에 다 넣어 시켜버리는' 패턴은 생각만큼 안전하지 않다는 것입니다. 사내 AI 어시스턴트에 우리 회사 자료 전부를 한꺼번에 넣어 돌리면, 결정적인 정책 한 줄을 놓쳐서 잘못된 답을 내는 사고가 흔히 일어납니다.
현장에선 RAG로 필요한 부분만 골라 넣거나, 긴 문서를 의미 단위로 청킹하거나, 핵심 정보는 컨텍스트 앞·뒤에 배치하는 식의 보완책을 씁니다. '컨텍스트 윈도우가 크니까 다 넣자' 대신 '필요한 만큼만 깔끔하게 넣자'가 실무 원칙입니다.
관련 용어
컨텍스트 윈도우
LLM이 한 번에 입력으로 받아들일 수 있는 토큰의 최대 길이로, 모델이 한 번에 참고할 수 있는 문맥의 크기를 결정합니다.
LLM중간 정보 누락
긴 컨텍스트의 가운데에 위치한 정보가 양 끝보다 활용도가 크게 떨어지는 현상으로, '중요한 내용은 앞·뒤에 두라'는 실무 원칙의 출처입니다.
LLMRAG
LLM이 답하기 전에 외부 문서나 검색 결과를 가져와 근거로 활용하는 구조로, ChatGPT Search·Perplexity 같은 AI 검색 답변의 핵심 기법입니다.
LLM컨텍스트 엔지니어링
프롬프트 한 줄을 다듬는 것을 넘어, 모델에게 '어떤 컨텍스트를 어떻게 조립해서 줄지' 전체를 설계하는 작업으로 2024~2025년 새롭게 자리 잡은 개념입니다.
LLMLLM
방대한 텍스트 데이터로 학습돼 사람의 언어를 이해하고 생성하는 대규모 신경망 모델로, ChatGPT·Claude·Gemini의 기반이 됩니다.
우리 브랜드는 AI 답변에 어떻게 등장하고 있을까요?
Villion은 ChatGPT·Perplexity·AI Overview에서 브랜드 인용 현황을 진단하고, 인용률과 언급 점유율을 끌어올리는 작업을 자동화합니다.
무료 진단 받기