JSPM

  • Created
  • Published
  • Downloads 234
  • Score
    100M100P100Q111650F
  • License MIT

Anthropic-compatible multi-provider LLM proxy for Claude Code — use 42+ providers instead of expensive Claude subscriptions

Package Exports

    This package does not declare an exports field, so the exports above have been automatically detected and optimized by JSPM instead. If any package subpath is missing, it is recommended to post an issue to the original package (clco-proxy) to support the "exports" field. If that is not possible, create a JSPM override to customize the exports field for this package.

    Readme

    clco-proxy

    npm License: MIT Node

    Use any LLM with Claude Code. One command, zero config.

    Claude Code ──► clco-proxy (localhost:8080) ──► DeepSeek, GPT-5.5, Gemini, MiniMax, ...
                       model mapping + format translation

    한국어


    Quick Start

    npm i -g clco-proxy
    claude2

    That's it. On first launch, an interactive TUI setup wizard walks you through picking a provider or preset. No config files to edit, no env vars to set.

    One-time use without installing:

    npx clco-proxy

    claude2, clco, and clco-proxy are interchangeable. Pick whichever you like.

    Features

    Subscription login, no API key. Sign in with your existing ChatGPT Plus/Pro/Business or GitHub Copilot account. Browser-based OAuth flow, credentials stored locally.

    42+ providers, one interface. Route Claude Code requests to DeepSeek, MiniMax, GLM, Groq, Gemini, OpenRouter, OpenAI, Mistral, xAI, Fireworks, Together, Cerebras, Cohere, Perplexity, Kimi, Qwen, SiliconFlow, Hugging Face, NVIDIA, Arcee, AI21, Volcengine, StepFun, Xiaomi, Ollama, LM Studio, and more.

    Google AI Ultra auto-detection. Enter a Gemini API key and the proxy auto-detects your Google AI Studio subscription tier. Ultra subscribers get premium models (Gemini 3.1 Pro Preview, etc.) with automatic fallback when the subscription expires.

    Intelligent setup wizard. First launch gives you three paths: log in with a subscription, enter a single API key, or pick a preset that maps different providers to each tier.

    Real-time monitoring. Built-in dashboard shows request count, token usage, latency, and error rate broken down by provider.

    Auto-update. Checks npm for newer versions and prompts when one is available.

    Dynamic model catalog. Pulls live model data from models.dev, including pricing and capabilities. Suggests tier mappings based on cost and performance.

    Structured logging. JSONL event logs with 1MB rotation. Request tracking, error reporting, and token accounting all written to ~/.clco-proxy/.

    How It Works

    The proxy sets two things in ~/.claude/settings.json:

    • ANTHROPIC_BASE_URL points to localhost:8080
    • ANTHROPIC_DEFAULT_OPUS_MODEL, ANTHROPIC_DEFAULT_SONNET_MODEL, ANTHROPIC_DEFAULT_HAIKU_MODEL map to your chosen models

    These are official Claude Code settings. The proxy never patches, decompiles, or reverse-engineers Claude Code. It receives Anthropic-format requests and translates to each provider's native format (OpenAI, passthrough, etc.) as needed.

    Streaming, tool use, and reasoning all work transparently.

    Presets

    Pick a preset and everything is configured for you. Each preset maps three quality tiers (opus, sonnet, haiku) to specific models.

    Preset Opus Sonnet Haiku
    Best Value DeepSeek V4-Pro MiniMax M2.7 DeepSeek V4-Flash
    Performance GPT-5.5 DeepSeek V4-Pro DeepSeek V4-Flash
    Budget GLM-5.1 GLM-5-Turbo Gemini 2.5 Flash
    Local Qwen3-235B Qwen3-30B Qwen3-8B

    Providers

    Subscription (browser login):

    ChatGPT Plus/Pro/Business, GitHub Copilot

    API key:

    DeepSeek, MiniMax, GLM / Z.AI, Groq, Gemini (Google AI Studio), OpenRouter, OpenAI, Mistral, xAI (Grok), Fireworks, Together, Cerebras, Cohere, Perplexity, Kimi, Qwen, SiliconFlow, Hugging Face, NVIDIA, Arcee, AI21, Volcengine, StepFun, Xiaomi, OpenCode Zen, OpenCode Go, KiloCode

    Local (free):

    Ollama, LM Studio, Cloudflare Workers, AWS Bedrock, Azure AI Foundry

    Enterprise gateways:

    Vercel AI Gateway, OpenRouter (200+ models), any OpenAI-compatible endpoint

    Requirements

    • Node.js >= 18
    • Claude Code installed (npm i -g @anthropic-ai/claude-code)

    Commands

    One command, full TUI menu:

    claude2

    Menu options:

    1. Launch Claude Code
    2. Settings (preset, model, port)
    3. Provider management (add, list, remove)
    4. Subscription management (login, logout, status)
    5. Proxy monitor (real-time dashboard)
    6. Stop proxy and exit
    7. Exit (keep proxy running as a daemon)

    Logs and Data

    Everything lives in ~/.clco-proxy/:

    File Contents
    config.json Provider keys, model mappings, port
    subscriptions.json OAuth tokens (ChatGPT, Copilot)
    events.log Proxy request events (JSONL, 1MB rotation)
    daemon.pid Background daemon process ID
    model-cache.json Cached model catalog from models.dev

    Disclaimer

    This tool sets environment variables (ANTHROPIC_BASE_URL, ANTHROPIC_DEFAULT_*_MODEL) that Claude Code reads natively. It does not modify, decompile, or reverse-engineer Claude Code.

    Users are responsible for complying with each provider's terms of service. This project is not affiliated with Anthropic, OpenAI, Google, or any other provider. Use at your own risk.

    License

    MIT


    clco-proxy

    npm License: MIT Node

    Claude Code에서 어떤 LLM이든 사용하세요. 명령어 하나, 설정 제로.

    Claude Code ──► clco-proxy (localhost:8080) ──► DeepSeek, GPT-5.5, Gemini, MiniMax, ...
                       모델 매핑 + 형식 변환

    English


    시작하기

    npm i -g clco-proxy
    claude2

    끝입니다. 처음 실행하면 대화형 TUI 설정 마법사가 나타나서 프로바이더나 프리셋을 선택하도록 안내합니다. 설정 파일을 직접 편집할 필요도, 환경변수를 설정할 필요도 없습니다.

    설치 없이 한 번만 실행:

    npx clco-proxy

    claude2, clco, clco-proxy는 모두 같습니다. 편한 걸 쓰세요.

    기능

    구독 로그인, API 키 불필요. 이미 가지고 있는 ChatGPT Plus/Pro/Business 또는 GitHub Copilot 계정으로 로그인하세요. 브라우저 기반 OAuth 인증, 자격 증명은 로컬에만 저장됩니다.

    42개 이상의 프로바이더, 하나의 인터페이스. Claude Code 요청을 DeepSeek, MiniMax, GLM, Groq, Gemini, OpenRouter, OpenAI, Mistral, xAI, Fireworks, Together, Cerebras, Cohere, Perplexity, Kimi, Qwen, SiliconFlow, Hugging Face, NVIDIA, Arcee, AI21, Volcengine, StepFun, Xiaomi, Ollama, LM Studio 등으로 라우팅합니다.

    Google AI Ultra 자동 감지. Gemini API 키를 입력하면 Google AI Studio 구독 등급을 자동으로 감지합니다. Ultra 구독자는 프리미엄 모델(Gemini 3.1 Pro Preview 등)을 사용할 수 있으며, 구독 만료 시 자동으로 대체 모델로 전환됩니다.

    지능형 설정 마법사. 첫 실행 시 세 가지 경로를 제공합니다: 구독으로 로그인, 단일 API 키 입력, 또는 각 티어마다 다른 프로바이더를 매핑하는 프리셋 선택.

    실시간 모니터링. 내장 대시보드에서 요청 수, 토큰 사용량, 응답 시간, 오류율을 프로바이더별로 확인합니다.

    자동 업데이트. npm에서 최신 버전을 확인하고 업데이트 가능 시 알려줍니다.

    동적 모델 카탈로그. models.dev에서 실시간 모델 데이터를 가져옵니다. 가격, 성능 정보가 포함되어 있으며 비용과 성능 기반으로 티어 매핑을 자동 제안합니다.

    구조화된 로깅. 1MB 순환 JSONL 이벤트 로그. 요청 추적, 오류 보고, 토큰 계산이 모두 ~/.clco-proxy/에 기록됩니다.

    작동 원리

    이 프록시는 ~/.claude/settings.json에 두 가지를 설정합니다:

    • ANTHROPIC_BASE_URLlocalhost:8080으로 지정
    • ANTHROPIC_DEFAULT_OPUS_MODEL, ANTHROPIC_DEFAULT_SONNET_MODEL, ANTHROPIC_DEFAULT_HAIKU_MODEL을 선택한 모델로 매핑

    이들은 Claude Code 공식 설정입니다. 프록시는 Claude Code를 패치, 디컴파일, 역공학하지 않습니다. Anthropic API 형식을 수신하여 각 프로바이더의 네이티브 형식(OpenAI, 패스스루 등)으로 변환합니다.

    스트리밍, 도구 사용, 추론 모두 투명하게 동작합니다.

    프리셋

    프리셋을 선택하면 모든 것이 자동으로 설정됩니다. 각 프리셋은 세 가지 품질 티어(opus, sonnet, haiku)를 특정 모델에 매핑합니다.

    프리셋 Opus Sonnet Haiku
    최고 가성비 DeepSeek V4-Pro MiniMax M2.7 DeepSeek V4-Flash
    최고 성능 GPT-5.5 DeepSeek V4-Pro DeepSeek V4-Flash
    저예산 GLM-5.1 GLM-5-Turbo Gemini 2.5 Flash
    로컬 Qwen3-235B Qwen3-30B Qwen3-8B

    프로바이더

    구독 (브라우저 로그인):

    ChatGPT Plus/Pro/Business, GitHub Copilot

    API 키:

    DeepSeek, MiniMax, GLM / Z.AI, Groq, Gemini (Google AI Studio), OpenRouter, OpenAI, Mistral, xAI (Grok), Fireworks, Together, Cerebras, Cohere, Perplexity, Kimi, Qwen, SiliconFlow, Hugging Face, NVIDIA, Arcee, AI21, Volcengine, StepFun, Xiaomi, OpenCode Zen, OpenCode Go, KiloCode

    로컬 (무료):

    Ollama, LM Studio, Cloudflare Workers, AWS Bedrock, Azure AI Foundry

    엔터프라이즈 게이트웨이:

    Vercel AI Gateway, OpenRouter (200개 이상의 모델), 모든 OpenAI 호환 엔드포인트

    요구사항

    • Node.js >= 18
    • Claude Code 설치됨 (npm i -g @anthropic-ai/claude-code)

    명령어

    명령어 하나로 전체 TUI 메뉴 실행:

    claude2

    메뉴 옵션:

    1. Claude Code 실행
    2. 설정 (프리셋, 모델, 포트)
    3. 프로바이더 관리 (추가, 목록, 제거)
    4. 구독 관리 (로그인, 로그아웃, 상태)
    5. 프록시 모니터 (실시간 대시보드)
    6. 프록시 중지 후 종료
    7. 종료 (프록시를 데몬으로 유지)

    로그 및 데이터

    모든 것은 ~/.clco-proxy/에 저장됩니다:

    파일 내용
    config.json 프로바이더 키, 모델 매핑, 포트
    subscriptions.json OAuth 토큰 (ChatGPT, Copilot)
    events.log 프록시 요청 이벤트 (JSONL, 1MB 순환)
    daemon.pid 백그라운드 데몬 프로세스 ID
    model-cache.json models.dev에서 캐시한 모델 카탈로그

    면책 조항

    이 도구는 Claude Code가 자체적으로 읽는 환경변수(ANTHROPIC_BASE_URL, ANTHROPIC_DEFAULT_*_MODEL)만 설정합니다. Claude Code를 변조, 디컴파일, 역공학하지 않습니다.

    각 프로바이더의 이용약관 준수는 사용자 책임입니다. 이 프로젝트는 Anthropic, OpenAI, Google 및 어떤 프로바이더와도 관련이 없습니다. 사용으로 인한 책임은 사용자에게 있습니다.

    라이선스

    MIT