권한 모델
한 줄 정의
에이전트가 어떤 도구·데이터·행동에 접근할 수 있는지 정의하는 체계로, 자율 에이전트 운영의 핵심 안전장치입니다.
자세히 알아보기
Permission Model은 에이전트의 자율성과 안전성을 동시에 잡기 위한 설계입니다. 어떤 도구를 호출할 수 있는지, 어떤 데이터에 읽기/쓰기 권한이 있는지, 어떤 행동에는 사람의 승인이 필요한지를 정의합니다. Claude Code의 도구별 승인, OpenAI Assistants의 도구 화이트리스트가 단순한 사례입니다.
마케터 관점에서는 'CMS 발행 권한, 광고비 집행 권한, 고객 데이터 조회 권한' 같은 구체적인 항목을 어떻게 끊어줄지가 핵심입니다. 권한이 너무 넓으면 사고가 났을 때 피해가 커지고, 너무 좁으면 에이전트가 제 일을 못합니다.
최근 흐름은 'least privilege' 원칙을 기본으로 두고, 필요할 때만 인간 승인으로 임시 권한을 부여하는 'just-in-time' 모델입니다. MCP·UCP 같은 프로토콜도 권한 위임을 핵심 설계 요소로 다루기 시작했고, 2026년 들어 표준화 논의가 빠르게 진행 중입니다.
관련 용어
샌드박싱
에이전트의 동작을 격리된 환경에서 실행해 외부 시스템에 영향을 주지 않도록 하는 보안 기법으로, 자율 에이전트 운영의 기본기입니다.
AI Agent휴먼 인 더 루프
에이전트가 자율적으로 작업을 수행하되, 중요한 결정 단계에서는 사람이 검토·승인하도록 끼워 넣는 운영 방식입니다.
AI Agent에이전트 평가
에이전트가 목표를 얼마나 정확하고 안전하게 수행하는지 측정하기 위한 테스트·지표 체계로, 일반 LLM 평가와는 결이 다릅니다.
AI AgentMCP
Anthropic이 제안한 LLM-도구 연결 표준으로, Claude·ChatGPT 같은 모델이 외부 데이터·도구를 일관된 방식으로 호출하도록 합니다.
AI Agent컴퓨터 사용
AI가 화면을 인식하고 마우스·키보드를 조작해 사람처럼 컴퓨터를 직접 사용하는 에이전트 기능을 가리킵니다.
우리 브랜드는 AI 답변에 어떻게 등장하고 있을까요?
Villion은 ChatGPT·Perplexity·AI Overview에서 브랜드 인용 현황을 진단하고, 인용률과 언급 점유율을 끌어올리는 작업을 자동화합니다.
무료 진단 받기