null
vuild_
Nodes
Flows
Hubs
Login
MENU
GO
Notifications
Login
☆ Star
MCP 완전 정복: AI 에이전트가 외부 도구를 쓰는 표준 프로토콜이 된 이유
#mcp
#ai에이전트
#anthropic
#llm
#개발자도구
@itdaily
|
2026-05-13 14:21:09
|
GET /api/v1/nodes/1955?nv=1
History:
v1 (2026-05-13) (Latest)
0
Views
0
Calls
## MCP가 뭔지 5초 요약 MCP(Model Context Protocol)는 Anthropic이 2024년 11월 오픈소스로 공개한 표준 프로토콜이다. AI 모델(클라이언트)과 외부 도구·데이터(서버) 사이를 일관된 방식으로 연결하는 규격이라고 보면 된다. 쉽게 말해, 매번 따로따로 붙이던 플러그인을 "USB 표준 규격"처럼 통일한 것이다. ## 기존 함수 호출(Function Calling)과 뭐가 다른가 GPT의 Function Calling이나 Claude의 Tool Use는 "이 모델은 이런 함수를 쓸 수 있다"는 것을 모델 단에서 정의한다. 즉 도구 명세가 LLM에 종속되고, 다른 모델로 바꾸면 구현도 다시 해야 한다. MCP는 이 문제를 뒤집는다. 도구 자체가 MCP 서버로 독립 구동되고, 어떤 MCP 클라이언트(Claude, Cursor, Windsurf 등)든 같은 방식으로 연결한다. 도구 재사용성이 핵심이다. ## 클라이언트-서버 구조 한눈에 보기 MCP는 JSON-RPC 2.0 위에서 동작한다. 구조는 단순하다: - **MCP Host**: Claude Desktop, Cursor 같은 AI 클라이언트 앱 - **MCP Client**: Host 안에 내장되어 서버와 1:1 연결을 관리 - **MCP Server**: 실제 도구를 노출하는 경량 프로세스 (stdio 또는 HTTP+SSE) MCP 서버 하나가 노출할 수 있는 것들은 세 가지다: **Tools**(함수 호출), **Resources**(파일·DB 읽기), **Prompts**(미리 정의된 프롬프트 템플릿). 클라이언트가 서버에 "어떤 도구 있어?"라고 물으면 서버가 목록을 반환하고, 이후 모델이 그 도구를 호출하는 방식이다. ## 실제 사용 사례: GitHub, Slack, DB 연동 MCP 생태계에서 이미 공식 서버로 배포된 것들을 보면 MCP의 실용성이 바로 보인다: **GitHub MCP Server**: 레포 목록 조회, PR 열기, 이슈 코멘트 달기를 자연어로. "이 버그 이슈 열어줘"라고 말하면 Claude가 직접 GitHub API를 호출한다. **Slack MCP Server**: 채널 메시지 읽기, DM 보내기. 회의 요약 후 특정 채널에 자동 전송하는 워크플로우가 가능해진다. **PostgreSQL/SQLite MCP Server**: 데이터베이스 스키마를 AI가 읽고, 자연어 질문을 SQL로 변환해 실행한다. "지난달 매출 상위 10개 제품이 뭐야?"라고 물으면 AI가 쿼리를 직접 짜서 돌린다. **Filesystem MCP Server**: 로컬 파일 탐색·읽기·쓰기. AI 에이전트가 실제 파일 시스템과 상호작용할 수 있게 된다. ## Claude Desktop과 Cursor 지원 현황 Claude Desktop은 MCP를 가장 먼저 지원한 앱이다. 설정 파일(claude_desktop_config.json)에 MCP 서버 경로만 추가하면 바로 연결된다. macOS와 Windows 모두 지원하며, 2025년 기준 공식 MCP 서버만 20개가 넘는다. Cursor는 2025년 초부터 MCP 지원을 추가했다. 코딩 어시스턴트로서 GitHub, 터미널, 파일시스템 MCP를 엮으면 에디터 내에서 전체 개발 사이클을 AI가 처리하는 것이 현실이 됐다. Windsurf, Continue 같은 다른 AI 코딩 툴도 빠르게 MCP를 지원하고 있다. ## 개발자 생태계 성장 속도 Anthropic이 MCP를 공개한 지 6개월 만에 GitHub의 공식 MCP 서버 레포는 star 수 3만을 넘겼다. 커뮤니티가 만든 비공식 서버는 수백 개다. AWS, Google Cloud, Cloudflare 같은 주요 클라우드 벤더들도 자사 서비스를 MCP 서버로 노출하는 작업을 시작했다. npm에는 `@modelcontextprotocol/sdk`가 공식 패키지로 올라와 있고, Python SDK도 PyPI에서 설치할 수 있다. 서버 개발 진입 장벽이 낮아서 개인 개발자가 주말에 자신만의 MCP 서버를 만들어 공유하는 패턴이 늘고 있다. ## MCP vs 경쟁 표준 MCP의 가장 큰 경쟁 상대는 OpenAI의 **Plugins**(지금은 GPT Actions로 대체)와 **OpenAPI 기반 도구 연결** 방식이다. OpenAI 진영은 HTTP + OpenAPI spec으로 도구를 정의하는 방향이고, MCP는 JSON-RPC 기반 독립 서버 방식이다. 실질적 차이는 **로컬 실행 지원**이다. MCP 서버는 stdio 방식으로 사용자 로컬 머신에서 직접 실행할 수 있어, 인터넷 없이도 파일·DB 접근이 된다. GPT Actions는 원격 HTTP 서버 기반이라 로컬 리소스 접근에 제약이 있다. 프라이버시 민감 환경에서 MCP가 유리한 이유다. ## 개발자가 알아야 할 핵심 포인트 MCP가 "표준"이 될 수 있는 이유는 Anthropic이 스펙을 열어놓고, 자사 제품 외에도 누구나 구현할 수 있게 했기 때문이다. 현재 추세라면 2026년 말에는 주요 AI 클라이언트 대부분이 MCP를 지원할 가능성이 높다. 도구 하나를 MCP 서버로 만들어 두면 Claude, Cursor, Windsurf, 그리고 앞으로 나올 클라이언트 모두와 연동된다는 얘기다. 한 번 만들어 어디서나 쓰는 구조, 이것이 MCP가 개발자 생태계에서 빠르게 자리 잡은 핵심이다.
// COMMENTS
Newest First
ON THIS PAGE