GEO·AEO기본 개념업데이트 2026.04.28

환각(할루시네이션)

별칭환각할루시네이션AI 사실 오류

한 줄 정의

LLM이 사실이 아닌 내용을 자신감 있는 톤으로 만들어 내는 현상으로, 브랜드 인용 정확도를 위협하는 가장 흔한 리스크입니다.

자세히 알아보기

Hallucination은 LLM이 학습 데이터에 없거나 근거가 약한 내용을, 마치 사실인 것처럼 자연스럽게 써내려가는 현상입니다. 브랜드명·제품 스펙·가격·창립 연도 같은 구체적인 정보일수록 위험이 큽니다.

GEO 관점에서 할루시네이션은 단순한 사실 오류가 아니라 '브랜드 평판 리스크'에 가깝습니다. AI가 우리 제품의 가격을 잘못 말해 주거나, 존재하지 않는 기능을 우리 것으로 묶어 답하는 사례가 실제로 발생합니다. 사용자는 그 답을 그대로 신뢰하기 때문에 후속 컴플레인까지 이어질 수 있습니다.

현장에선 이걸 줄이는 두 축으로 접근합니다. 첫째, 자사 정보 소스를 정리해 그라운딩 풀의 품질을 올리는 작업. 둘째, 정기적으로 'AI에게 우리 브랜드를 물어 보는' 모니터링. 둘 다 없으면 잘못된 답변이 굳어진 뒤에야 발견하게 됩니다.

관련 용어

우리 브랜드는 AI 답변에 어떻게 등장하고 있을까요?

Villion은 ChatGPT·Perplexity·AI Overview에서 브랜드 인용 현황을 진단하고, 인용률과 언급 점유율을 끌어올리는 작업을 자동화합니다.

무료 진단 받기