GPT 시리즈
Generative Pre-trained Transformer
한 줄 정의
OpenAI가 만든 Transformer 기반 LLM 시리즈로, ChatGPT의 엔진이자 현재 AI 시장의 사실상 기준선입니다.
자세히 알아보기
GPT(Generative Pre-trained Transformer)는 OpenAI가 2018년부터 발표해 온 LLM 시리즈입니다. 학계의 주목을 받은 GPT-2를 거쳐 GPT-3에서 일반 대중에게 인식되기 시작했고, GPT-3.5 기반의 ChatGPT가 2022년 말 등장하면서 'LLM 시대'의 사실상 출발점이 됐습니다. 이후 GPT-4, GPT-4o, GPT-5 계열로 이어지며 멀티모달·실시간 음성·검색·도구 사용 능력이 차례로 추가됐습니다.
기술적으로 GPT는 'Decoder-only Transformer + 대규모 사전학습 + 인스트럭션 튜닝 + RLHF'의 조합으로 만들어집니다. 인터넷 규모의 텍스트로 다음 토큰을 예측하도록 학습된 뒤, 사람 평가 데이터로 응답 스타일과 안전성을 다듬는 구조입니다. 우리가 ChatGPT에서 느끼는 '말이 잘 통한다'는 감각의 상당 부분은 모델 자체보다 이 후처리 단계에서 만들어집니다.
마케팅 관점에서 GPT 계열은 단순한 한 회사의 모델이 아니라 'GEO에서 가장 먼저 측정해야 할 표면'입니다. 한국·미국 모두 ChatGPT 사용자가 다른 챗봇을 압도하기 때문에, AI 답변 안 브랜드 노출을 측정할 때 ChatGPT의 답변 패널이 1순위 인용 풀이 됩니다. 또한 ChatGPT Search가 출시되면서 실시간 웹 검색까지 함께 이뤄져, 학습 데이터뿐 아니라 라이브 인덱스에서의 노출도 동시에 챙겨야 합니다.
버전별 행동 차이도 중요합니다. GPT-4o는 빠르고 멀티모달, GPT-5는 깊은 추론과 긴 컨텍스트, mini/nano 변종은 비용 효율 같은 식으로 캐릭터가 다릅니다. GEO 측정에서 '브랜드가 ChatGPT에 인용되는가'만 보는 것이 아니라 '어떤 모델 버전에서 인용되는가'까지 분리해서 봐야 변화 추적이 가능합니다. 같은 ChatGPT라도 무료 사용자와 유료 사용자가 만나는 모델이 달라 답변이 달라질 수 있습니다.
한국 시장에서 GPT는 'API 기반 자체 서비스'와 'ChatGPT 직접 사용' 양쪽에서 모두 점유율이 높습니다. 다만 한국어 토큰 비용은 영어보다 비싸고, 일부 국내 도메인은 GPT가 학습 시점 기준으로 잘 다루지 않아 답변 품질 편차가 큽니다. GEO 실무에서는 '우리 브랜드 정보를 GPT가 어떤 시점에 어떤 출처로 봤는가'를 추정하고 그 갭을 메우는 작업이 한국에서 특히 중요합니다.
관련 용어
LLM
방대한 텍스트 데이터로 학습돼 사람의 언어를 이해하고 생성하는 대규모 신경망 모델로, ChatGPT·Claude·Gemini의 기반이 됩니다.
LLMTransformer
지금의 거의 모든 LLM이 기반으로 삼는 신경망 아키텍처로, '셀프 어텐션'을 통해 문장 안 단어들의 관계를 한꺼번에 계산합니다.
LLMClaude
Anthropic이 개발한 LLM 시리즈로, 안전성·긴 문맥 처리·도구 사용에 강점을 가지고 있어 기업·개발자 환경에서 폭넓게 쓰입니다.
GEO·AEOChatGPT Search
ChatGPT가 실시간 웹 검색 결과를 결합해 답변하는 기능으로, AI 검색 트래픽의 가장 큰 표면 중 하나입니다.
LLM멀티모달 모델
텍스트뿐 아니라 이미지·오디오·비디오 같은 여러 형식의 입력을 함께 이해하고 다룰 수 있는 LLM을 가리킵니다.
우리 브랜드는 AI 답변에 어떻게 등장하고 있을까요?
Villion은 ChatGPT·Perplexity·AI Overview에서 브랜드 인용 현황을 진단하고, 인용률과 언급 점유율을 끌어올리는 작업을 자동화합니다.
무료 진단 받기