Niente CLI? Niente problemi.
Proxy BYOK compatibile OpenAI.
POST /api/proxy/stream accetta { baseUrl, apiKey, model, messages }, normalizza il path a …/v1/chat/completions e inoltra i chunk SSE indietro al browser. Tutto ciò che parla lo schema chat di OpenAI funziona.
- · Shim Anthropic-via-OpenAI
- · DeepSeek
- · Groq
- · MiMo (auto
tool_choice: 'none' perché il suo schema dei tool si scoordina sulla generazione libera) - · OpenRouter
- · Il tuo vLLM auto-ospitato
- · Qualunque altro endpoint compatibile con OpenAI
Protetto da SSRF al bordo del daemon, contro destinazioni loopback, link-local e RFC1918.