반응형
~/.config/opencode/opencode.jsonc 에 사용하는 mcp 와 model 을 설정해서 사용 가능하다.
** json 과 jsonc 의 차이점?
json 설정 파일에 comment 가 가능한 파일을 jsonc 라고 한다.
아래는 현재 내가 설정중인 mcp 파일이다.
{
"$schema": "https://opencode.ai/config.json",
"mcp": {
"context7": {
"type": "remote",
"url": "https://mcp.context7.com/mcp"
},
"tavily-mcp": {
"type": "local",
"command": ["npx", "-y", "tavily-mcp@latest"],
"environment": {
"TAVILY_API_KEY": "API키",
"DEFAULT_PARAMETERS": "{\"include_images\": true, \"max_results\": 15, \"search_depth\": \"advanced\"}"
}
},
"bluesky-mcp": {
"type": "local",
"command": ["npx", "-y", "@semihberkay/bluesky-mcp"],
"environment": {
"BLUESKY_IDENTIFIER": "gauguin135.bsky.social",
"BLUESKY_PASSWORD": "APP암호"
}
},
"chroma": {
"type": "local",
"command": ["uvx", "chroma-mcp", "--client-type", "persistent", "--data-dir", "/mnt/c/MENDIX_DEV/ChromaData"]
},
"sqlite":{
"type": "local",
"command": ["uvx", "mcp-server-sqlite", "--db-path", "/mnt/c/MENDIX_DEV/sqlite-tools-win-x64-3510300/Database/mydatabase.db"]
}
},
"provider": {
"vllm-remote": {
"npm": "@ai-sdk/openai-compatible",
"options": {
"baseURL": "http://커스텀모델IP:39823/v1",
"apiKey": "API키"
},
"models": {
"google/gemma-4-31b-it": {
"name": "Gemma 4 31B (Remote vLLM)"
}
}
},
"ollama-remote": {
"npm": "@ai-sdk/openai-compatible",
"options": {
"baseURL": "http://localhost:11434/v1",
"apiKey": "ollama"
},
"models": {
"gemma4:26b": {
"name": "gemma4:26b (Remote Ollama)"
}
}
}
}
}
** context7
여러 프레임워크들의 최신 API 문서를 참고할 수 있게 해준다.
** tavily-mcp
mcp 로 검색엔진을 쉽게 사용 가능
** bluesky-mcp
블루스카이 SNS 이용 가능하다.
노션, X 등에도 mcp 가 존재 한다.
** chroma
Vector DB 활용가능
** sqlite
간단한 심플한 RDB 사용
provider 를 이용해서, 사용 LLM 말고 로컬에서 실행한 것들을 활용 가능 하다.
요즘 나온 따끈따끈한 gemma4 를 한번 연결해서 사용해 봤는데,
opencode 의 무료 LLM 인 Big Pickle 보다도 좋진 않은 느낌이다.
등록된 MCP 를 쓰는 방법은 간단하다. 자연어로 이걸 써주라고 말하면 된다.
ex)
tavily-mcp 를 써서 최근 미국주식 동향을 조사해주고, bluesky-mcp 를 이용해 블루스카이에 글을 써줘. 글자제한이 있으니, 거기에 맞추어 내용을 요약해서 써줘
라고 해주면 잘 해준다.
반응형