청킹
한 줄 정의
긴 콘텐츠를 LLM이 다루기 좋은 단위로 잘게 나누는 작업으로, RAG·AI 검색의 인용 단위와 직접 연결됩니다.
자세히 알아보기
Chunking은 원래 RAG(Retrieval-Augmented Generation) 같은 LLM 응용에서 쓰던 운영 개념입니다. 긴 문서를 그대로 모델에 넣지 않고, 일정 단위(문단·섹션·토큰 길이)로 잘라 색인하고 검색하는 방식입니다. AI 검색 엔진도 비슷한 방식으로 페이지를 분할해 인용 후보로 다룹니다.
GEO 콘텐츠 작업과 직접 연결되는 부분은 '청크 단위로 의미가 통하는가'입니다. 페이지 전체로 보면 좋아 보여도, 청크 단위로 잘라 봤을 때 문맥이 깨지면 인용 후보에서 빠집니다. 청크 최적화(Chunk Optimization)와 청킹은 같은 작업의 두 시점이라고 보면 직관적입니다.
운영 팁 한 가지는 헤딩 구조와 청킹의 경계를 일치시키는 것입니다. H2·H3 같은 구조 신호가 명확할수록 LLM이 자연스러운 단위로 잘라 가져갈 가능성이 높고, 의미가 어중간하게 잘리는 사례가 줄어듭니다.
관련 용어
의미 단위 청킹
고정 길이가 아니라 의미 단위로 콘텐츠를 분할하는 청킹 방식으로, 인용 시 문맥 손실이 적어 GEO 친화적인 구조로 평가됩니다.
GEO·AEO청크 최적화
LLM이 인용하기 좋은 단락 단위로 콘텐츠를 잘게 정리해, 답변에 그대로 발췌되도록 만드는 작업입니다.
LLMRAG
LLM이 답하기 전에 외부 문서나 검색 결과를 가져와 근거로 활용하는 구조로, ChatGPT Search·Perplexity 같은 AI 검색 답변의 핵심 기법입니다.
GEO·AEO인용 가능성
콘텐츠가 LLM에 의해 인용되기 쉬운 정도를 의미하는 속성으로, 사실성·자체 완결성·구조·권위가 핵심 변수입니다.
GEO·AEOGEO
ChatGPT·Perplexity 같은 생성형 AI 검색에서 브랜드가 인용되고 추천되도록 콘텐츠와 데이터를 최적화하는 작업입니다.
우리 브랜드는 AI 답변에 어떻게 등장하고 있을까요?
Villion은 ChatGPT·Perplexity·AI Overview에서 브랜드 인용 현황을 진단하고, 인용률과 언급 점유율을 끌어올리는 작업을 자동화합니다.
무료 진단 받기