JSPM

  • Created
  • Published
  • Downloads 234
  • Score
    100M100P100Q111695F
  • License MIT

Anthropic-compatible multi-provider LLM proxy for Claude Code — use 42+ providers instead of expensive Claude subscriptions

Package Exports

    This package does not declare an exports field, so the exports above have been automatically detected and optimized by JSPM instead. If any package subpath is missing, it is recommended to post an issue to the original package (clco-proxy) to support the "exports" field. If that is not possible, create a JSPM override to customize the exports field for this package.

    Readme

    clco-proxy

    npm License: MIT

    Use any LLM with Claude Code. One command setup.

    npx clco-proxy

    That's it. Interactive setup will guide you through everything.

    한국어


    Quick Start

    npx clco-proxy

    You'll see a menu like this:

      1. ChatGPT / Codex    (Use your existing ChatGPT subscription)
      2. GitHub Copilot     (Use your existing Copilot subscription)
      3. DeepSeek           (Best value, Anthropic-compatible)
      4. Gemini             (Free API key + Ultra subscription)
      5. OpenCode Zen       (Pay-as-you-go, zero markup, 50+ models)
      6. OpenCode Go        ($5/mo subscription, Chinese models)
      7. GLM / Z.AI         (Top Chinese coding model, free tier)
      8. MiniMax            (Great value, token plan available)
      9. Groq               (Ultra-fast inference, free tier)
      10. OpenRouter        (200+ models, single API key)
      11. Ollama            (Local, free, run your own models)
      12. View all 42+ providers...

    Pick one, enter your API key or login, and you're done. The proxy starts automatically and launches Claude Code.

    How It Works

      Claude Code                    clco-proxy                   LLM Provider
      ───────────────────────────►   localhost:8080   ──────────►
      "Use Claude Opus"              Translate to      "Use deepseek-v4-pro"
      (Anthropic API format)         provider format    (DeepSeek API format)

    Claude Code thinks it's talking to Anthropic. clco-proxy translates requests to your chosen provider in real-time. Streaming, tool use, and reasoning all work transparently.

    Common Use Cases

    Use your ChatGPT Plus subscription

    npx clco-proxy
    # Select "ChatGPT / Codex" → browser login → done

    Use DeepSeek (cheapest, great quality)

    npx clco-proxy
    # Select "DeepSeek" → paste API key from platform.deepseek.com → done

    Use Gemini (free)

    npx clco-proxy
    # Select "Gemini" → paste API key from aistudio.google.com → done

    Use local models (completely free, offline)

    npx clco-proxy
    # Select "Ollama" → no API key needed → done

    After Setup

    The proxy daemon runs in the background. Just use Claude Code normally.

    # Proxy auto-starts during setup. To manage manually:
    clco-proxy start        # Start daemon
    clco-proxy stop         # Stop daemon
    clco-proxy status       # Check status
    
    # To reconfigure:
    npx clco-proxy          # Interactive setup again
    
    # To restore original Claude Code settings:
    clco-proxy restore

    All Providers (42+)

    Subscription (use what you already pay for)

    Provider Auth
    ChatGPT Plus / Codex Browser OAuth login
    GitHub Copilot Device flow OAuth
    Gemini Ultra Free API key, auto-detects tier

    Best Value APIs

    Provider Price (per 1M tokens) Notes
    DeepSeek $0.28 / $0.42 Cheapest quality, Anthropic-compatible
    MiniMax $0.30 / $1.20 Chinese provider, token plans
    GLM / Z.AI Free tier available Top Chinese coding model
    OpenCode Zen Zero markup 50+ models, pay-as-you-go
    OpenCode Go $5/mo Subscription, Chinese models
    Groq Free tier Fastest inference
    Gemini Free tier Google, auto model detection

    All Supported

    Show all 42 providers

    AI21 Labs, Alibaba Coding Plan, Anthropic, Arcee AI, AWS Bedrock, Azure AI Foundry, Cerebras, Cloudflare Workers AI, Cohere, DeepSeek, Fireworks AI, Gemini, GitHub Copilot, GLM / Z.AI, Groq, Hugging Face, KiloCode, Kimi (Moonshot), LM Studio, MiniMax, Mistral, Nous Portal, NVIDIA NIM, Ollama, Ollama Cloud, OpenAI, OpenCode Go, OpenCode Zen, OpenRouter, Perplexity, Qwen (Alibaba), SiliconFlow, StepFun, Together AI, Vercel AI Gateway, Volcengine (ByteDance), Xiaomi MiMo, xAI (Grok), + any OpenAI-compatible endpoint.

    Smart Model Mapping

    Claude Code requests models by tier (opus, sonnet, haiku). clco-proxy auto-maps them to your provider's best models.

    // Example: DeepSeek mapping
    "modelMapping": {
      "opus": { "provider": "deepseek", "model": "deepseek-v4-pro" },
      "sonnet": { "provider": "deepseek", "model": "deepseek-v4-flash" },
      "haiku": { "provider": "deepseek", "model": "deepseek-v4-flash" }
    }

    Use @auto for automatic model detection — clco-proxy queries the provider API and picks the best model, cached for 24h.

    CLI Reference

    npx clco-proxy                                    # Interactive setup + start
    clco-proxy start                                  # Start daemon
    clco-proxy stop                                   # Stop daemon
    clco-proxy status                                 # Check status
    clco-proxy run                                    # Start + launch Claude Code
    clco-proxy restore                                # Restore original Claude settings
    clco-proxy subscription login <provider>          # Login to subscription provider
    clco-proxy subscription status                    # Show subscription status
    clco-proxy subscription models <provider>         # List available models
    clco-proxy subscription set-model <p> <tier> [m] # Set model for tier
    clco-proxy subscription refresh [provider]        # Refresh model cache

    Configuration

    Config: ~/.clco-proxy/config.json

    {
      "port": 8080,
      "providers": [
        {
          "id": "deepseek",
          "name": "DeepSeek",
          "apiKey": "sk-...",
          "baseUrl": "https://api.deepseek.com/anthropic",
          "models": ["deepseek-v4-flash", "deepseek-v4-pro"],
          "anthropicCompat": true
        }
      ],
      "modelMapping": {
        "opus": { "provider": "deepseek", "model": "deepseek-v4-pro" },
        "sonnet": { "provider": "deepseek", "model": "deepseek-v4-flash" },
        "haiku": { "provider": "deepseek", "model": "deepseek-v4-flash" },
        "default": { "provider": "deepseek", "model": "deepseek-v4-flash" }
      }
    }

    Tech Stack

    TypeScript 5 (strict, ESM) | Fastify 5 | Undici 7 | Zod 3 | Commander 13 | 517 tests passing

    License

    MIT


    clco-proxy

    npm License: MIT

    Claude Code에서 어떤 LLM이든 사용하세요. 명령어 하나로 끝.

    npx clco-proxy

    English


    시작하기

    npx clco-proxy

    이런 메뉴가 나옵니다:

      1. ChatGPT / Codex    (기존 ChatGPT 구독 사용)
      2. GitHub Copilot     (기존 Copilot 구독 사용)
      3. DeepSeek           (가성비 최고, Anthropic 호환)
      4. Gemini             (무료 API 키 + Ultra 구독)
      5. OpenCode Zen       (종량제, 제로 마크업, 50+ 모델)
      6. OpenCode Go        (월 $5 구독, 중국 모델)
      7. GLM / Z.AI         (중국 1위 코딩 모델, 무료 티어)
      8. MiniMax            (가성비 좋음, 토큰 플랜 제공)
      9. Groq               (초고속 추론, 무료 티어)
      10. OpenRouter        (200+ 모델, 단일 API 키)
      11. Ollama            (로컬, 무료, 직접 모델 실행)
      12. 전체 42개 프로바이더 보기...

    하나 선택 → API 키 입력 또는 로그인 → 끝. 프록시가 자동 시작되고 Claude Code가 실행됩니다.

    작동 원리

      Claude Code                    clco-proxy                   LLM 프로바이더
      ───────────────────────────►   localhost:8080   ──────────►
      "Claude Opus 사용"              변환              "deepseek-v4-pro 사용"
      (Anthropic API 형식)            프로바이더 형식으로   (DeepSeek API 형식)

    Claude Code는 Anthropic과 통신한다고 생각하지만, 실제로는 선택한 프로바이더를 사용합니다. 스트리밍, 도구 사용, 추론 모두 투명하게 동작합니다.

    대표 사용 사례

    ChatGPT Plus 구독 사용

    npx clco-proxy
    # "ChatGPT / Codex" 선택 → 브라우저 로그인 → 끝

    DeepSeek 사용 (가장 저렴)

    npx clco-proxy
    # "DeepSeek" 선택 → platform.deepseek.com에서 API 키 붙여넣기 → 끝

    Gemini 사용 (무료)

    npx clco-proxy
    # "Gemini" 선택 → aistudio.google.com에서 API 키 붙여넣기 → 끝

    로컬 모델 사용 (완전 무료, 오프라인)

    npx clco-proxy
    # "Ollama" 선택 → API 키 불필요 → 끝

    설정 후

    프록시 데몬이 백그라운드에서 실행됩니다. Claude Code를 평소처럼 사용하세요.

    # 프록시는 설정 중 자동 시작됩니다. 수동 관리:
    clco-proxy start        # 데몬 시작
    clco-proxy stop         # 데몬 중지
    clco-proxy status       # 상태 확인
    
    # 재설정:
    npx clco-proxy          # 대화형 설정 다시
    
    # 원래 Claude Code 설정 복원:
    clco-proxy restore

    전체 프로바이더 (42+)

    구독 (이미 결제 중인 것 사용)

    프로바이더 인증
    ChatGPT Plus / Codex 브라우저 OAuth 로그인
    GitHub Copilot 디바이스 플로우 OAuth
    Gemini Ultra 무료 API 키, 티어 자동 감지

    가성비 API

    프로바이더 가격 (1M 토큰당) 특징
    DeepSeek $0.28 / $0.42 가장 저렴, Anthropic 호환
    MiniMax $0.30 / $1.20 중국 프로바이더, 토큰 플랜
    GLM / Z.AI 무료 티어 중국 1위 코딩 모델
    OpenCode Zen 제로 마크업 50+ 모델, 종량제
    OpenCode Go 월 $5 구독제, 중국 모델
    Groq 무료 티어 가장 빠른 추론
    Gemini 무료 티어 구글, 자동 모델 감지

    전체 목록

    42개 프로바이더 전체 보기

    AI21 Labs, Alibaba Coding Plan, Anthropic, Arcee AI, AWS Bedrock, Azure AI Foundry, Cerebras, Cloudflare Workers AI, Cohere, DeepSeek, Fireworks AI, Gemini, GitHub Copilot, GLM / Z.AI, Groq, Hugging Face, KiloCode, Kimi (Moonshot), LM Studio, MiniMax, Mistral, Nous Portal, NVIDIA NIM, Ollama, Ollama Cloud, OpenAI, OpenCode Go, OpenCode Zen, OpenRouter, Perplexity, Qwen (Alibaba), SiliconFlow, StepFun, Together AI, Vercel AI Gateway, Volcengine (ByteDance), Xiaomi MiMo, xAI (Grok), + 모든 OpenAI 호환 엔드포인트.

    스마트 모델 매핑

    Claude Code는 티어(opus, sonnet, haiku)로 모델을 요청합니다. clco-proxy가 프로바이더의 최적 모델에 자동 매핑합니다.

    @auto를 사용하면 프로바이더 API를 조회하여 최적 모델을 자동 선택, 24시간 캐시합니다.

    명령어

    npx clco-proxy                                    # 대화형 설정 + 시작
    clco-proxy start                                  # 데몬 시작
    clco-proxy stop                                   # 데몬 중지
    clco-proxy status                                 # 상태 확인
    clco-proxy run                                    # 시작 + Claude Code 실행
    clco-proxy restore                                # 원래 Claude 설정 복원
    clco-proxy subscription login <provider>          # 구독 프로바이더 로그인
    clco-proxy subscription status                    # 구독 상태 확인
    clco-proxy subscription models <provider>         # 사용 가능한 모델 목록
    clco-proxy subscription set-model <p> <tier> [m] # 티어별 모델 설정
    clco-proxy subscription refresh [provider]        # 모델 캐시 갱신

    기술 스택

    TypeScript 5 (strict, ESM) | Fastify 5 | Undici 7 | Zod 3 | Commander 13 | 517 테스트 통과

    라이선스

    MIT