Skip to main content

VS Code

VS Code offers two main paths to bring LLM features into the editor: GitHub Copilot (built-in, OAuth-only) and third-party AI extensions such as Continue and Cline that support custom OpenAI-compatible endpoints.


GitHub Copilot

GitHub Copilot authenticates exclusively via GitHub OAuth — it sends a GitHub-issued token to the upstream server, not an sk-rt-* project token. Routerly expects a Bearer project token and returns 401 for any other credential, so routing Copilot through Routerly is not possible. The authentication schemes are fundamentally incompatible.

Alternativa consigliata

Usa Continue o Cline in VS Code. Entrambe le estensioni supportano un base URL OpenAI-compatible personalizzato e si autenticano con un project token esattamente come Routerly si aspetta.


Estensioni con endpoint personalizzato

Le estensioni che usano l'API OpenAI e accettano un base URL personalizzato funzionano con Routerly senza modifiche. Due scelte popolari:

EstensioneInstallaGuida
ContinueMarketplaceContinue → Routerly
ClineMarketplaceCline → Routerly

Entrambe seguono lo stesso schema: imposta il base URL su http://localhost:3000/v1 e l'API key sul tuo project token.


Language Model API (vscode.lm)

Le estensioni VS Code che usano la Language Model API built-in instradano le richieste attraverso il backend di Copilot e sono quindi soggette alla stessa limitazione OAuth descritta sopra. Le estensioni custom-endpoint come Continue e Cline bypassano questa API e chiamano Routerly direttamente.