제목 앞 [AI]가 붙은건 Claude를 통해 만든 게시글로 지정해야겠다.
학습을 시키면서 글을 조금씩 잘쓰게끔 하려고 하는데 생각보다 쉽지가 않다.
특히 이미지 첨부부분이 잘 안되는데 분석을 좀 해봐야할 것 같다.
이제는 Python MCP 서버를 구축해보려고 한다.
그전에 MCP에 대한 개념을 잡아보고자 Claude한테 글을 맡겼다…
Claude를 사용하면서 항상 아쉬웠던 점이 하나 있었다.
“Claude야, 내 Google Drive에서 파일 좀 찾아줘” 하면 “죄송하지만 외부 서비스에 접근할 수 없습니다”라는 답변만 돌아왔다.
그런데 최근에 Anthropic에서 뭔가 엄청난 걸 발표했다는 소식을 들었다. Model Context Protocol(MCP)라는 건데, 이게 뭔지 궁금해서 파보기 시작했다.
MCP가 대체 뭔데?
Model Context Protocol(MCP)는 Anthropic에서 개발한 오픈 표준으로, AI 모델이 외부 데이터 소스와 도구에 안전하고 표준화된 방식으로 연결할 수 있게 해주는 프로토콜이다.
쉽게 말해서, Claude가 내 컴퓨터의 파일을 읽거나, 데이터베이스에 쿼리를 날리거나, API를 호출할 수 있게 해주는 다리 역할을 한다.
기존에는 각 AI 서비스마다 제각각의 방식으로 외부 도구와 연결했다면, MCP는 이를 표준화한 것이다.
왜 MCP가 필요한가?
현실적으로 AI를 업무에 활용하려면 다음과 같은 상황들이 필요하다:
– 내 회사 데이터베이스에서 정보 조회
– Google Drive나 Notion에서 문서 검색
– GitHub 레포지토리 분석
– Slack이나 이메일 내용 확인
하지만 지금까지는 각각을 위해 별도의 커스텀 솔루션을 만들어야 했다.
MCP는 이런 문제를 해결하기 위해 **표준화된 방식**을 제공한다.
MCP의 핵심 구성 요소
MCP는 크게 세 가지 주요 구성 요소로 나뉜다:
1. Resources (리소스)
파일, 데이터베이스 레코드, API 응답 등 AI가 읽을 수 있는 데이터 소스
2. Tools (도구)
AI가 실행할 수 있는 기능들 (파일 생성, API 호출, 계산 등)
3. Prompts (프롬프트)
재사용 가능한 프롬프트 템플릿
이 모든 것들이 JSON-RPC 2.0 프로토콜을 통해 표준화된 방식으로 통신한다.
실제로 어떻게 동작하나?
간단한 예시로 살펴보자.
내가 “내 프로젝트 폴더에서 Python 파일들의 총 라인 수를 세어줘”라고 요청했다고 가정해보자.
{
"jsonrpc": "2.0",
"id": 1,
"method": "tools/call",
"params": {
"name": "filesystem_read_directory",
"arguments": {
"path": "/my/project"
}
}
}
MCP 서버는 이 요청을 받아서 실제 파일 시스템에 접근하고 결과를 반환한다.
{
"jsonrpc": "2.0",
"id": 1,
"result": {
"content": [
{"name": "main.py", "type": "file"},
{"name": "utils.py", "type": "file"},
{"name": "tests/", "type": "directory"}
]
}
}
그러면 Claude는 이 정보를 바탕으로 각 파일을 읽고 라인 수를 계산해서 답변을 준다.
현재 사용 가능한 MCP 서버들
Anthropic에서 이미 몇 가지 공식 MCP 서버를 제공하고 있다:
– **filesystem**: 로컬 파일 시스템 접근
– **sqlite**: SQLite 데이터베이스 쿼리
– **postgresql**: PostgreSQL 데이터베이스 연결
– **github**: GitHub API 연동
– **google-drive**: Google Drive 파일 관리
– **slack**: Slack 메시지 및 채널 관리
각각을 npm이나 pip로 쉽게 설치할 수 있다.
npm install @modelcontextprotocol/server-filesystem
pip install mcp-server-sqlite
MCP의 미래
MCP가 정말 흥미로운 점은 **오픈 표준**이라는 것이다.
Anthropic만의 독점 기술이 아니라, 다른 AI 모델들도 MCP를 지원할 수 있다. 실제로 이미 몇몇 오픈소스 AI 프로젝트들이 MCP 지원을 검토하고 있다고 한다.
이렇게 되면:
– 한 번 만든 MCP 서버를 여러 AI 모델에서 사용 가능
– 개발자들이 MCP 생태계에 더 많은 도구 기여
– AI와 기존 시스템 간의 통합이 훨씬 쉬워짐
결론
MCP는 AI를 실제 업무에 활용하는 데 있어서 게임 체인저가 될 것 같다.
지금까지는 AI가 “똑똑한 챗봇” 정도의 역할이었다면, MCP를 통해 진짜 “업무 파트너”가 될 수 있을 것 같다.
아직 초기 단계라 완벽하지는 않지만, 앞으로의 발전이 정말 기대된다. 특히 Kubernetes나 Docker 관련 MCP 서버가 나온다면… 상상만 해도 설렌다.
그동안 “AI가 내 개발 환경에 직접 접근할 수 있으면 얼마나 좋을까?” 하고 꿈꿨던 일들이 현실이 되고 있다.
MCP, 앞으로 지켜볼 만한 기술인 것 같다.