VS Code
VS Code offers two main paths to bring LLM features into the editor: GitHub Copilot (built-in, OAuth-only) and third-party AI extensions such as Continue and Cline that support custom OpenAI-compatible endpoints.
GitHub Copilot
GitHub Copilot authenticates exclusively via GitHub OAuth — it sends a GitHub-issued token to the upstream server, not an sk-rt-* project token. Routerly expects a Bearer project token and returns 401 for any other credential, so routing Copilot through Routerly is not possible. The authentication schemes are fundamentally incompatible.
Estensioni con endpoint personalizzato
Le estensioni che usano l'API OpenAI e accettano un base URL personalizzato funzionano con Routerly senza modifiche. Due scelte popolari:
| Estensione | Installa | Guida |
|---|---|---|
| Continue | Marketplace | Continue → Routerly |
| Cline | Marketplace | Cline → Routerly |
Entrambe seguono lo stesso schema: imposta il base URL su http://localhost:3000/v1 e l'API key sul tuo project token.
Language Model API (vscode.lm)
Le estensioni VS Code che usano la Language Model API built-in instradano le richieste attraverso il backend di Copilot e sono quindi soggette alla stessa limitazione OAuth descritta sopra. Le estensioni custom-endpoint come Continue e Cline bypassano questa API e chiamano Routerly direttamente.