packages/web/src/content/docs/bs/providers.mdx
import config from "../../../../config.mjs" export const console = config.console
OpenCode koristi AI SDK i Models.dev za podršku 75+ LLM provajdera i podržava pokretanje lokalnih modela.
Za dodavanje provajdera potrebno je:
/connect.Kada dodate API ključeve dobavljača sa naredbom /connect, oni se pohranjuju
u ~/.local/share/opencode/auth.json.
Možete prilagoditi dobavljače putem odjeljka provider u vašem OpenCode
config.
Možete prilagoditi osnovni URL za bilo kojeg provajdera postavljanjem opcije baseURL. Ovo je korisno kada koristite proxy usluge ili prilagođene krajnje tačke.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": {
"baseURL": "https://api.anthropic.com/v1"
}
}
}
}
OpenCode Zen je lista modela koje je obezbedio OpenCode tim koji su bili testirano i potvrđeno da dobro radi sa OpenCode. Saznajte više.
:::tip Ako ste novi, preporučujemo da počnete sa OpenCode Zen. :::
/connect u TUI-u, odaberite opencode i idite na opencode.ai/auth. /connect
Prijavite se, dodajte svoje detalje naplate i kopirajte svoj API ključ.
Zalijepite svoj API ključ.
┌ API key
│
│
└ enter
/models u TUI da vidite listu modela koje preporučujemo. /models
Radi kao i svaki drugi provajder u OpenCode i potpuno je opcionalan za korištenje.
OpenCode Go je jeftin plan pretplate koji pruža pouzdan pristup popularnim modelima otvorenog kodiranja koje pruža OpenCode tim i koji su testirani i verificirani da dobro rade s OpenCode-om.
Pokrenite naredbu /connect u TUI-u, odaberite OpenCode Go i idite na opencode.ai/auth.
/connect
Prijavite se, dodajte svoje detalje naplate i kopirajte svoj API ključ.
Zalijepite svoj API ključ.
┌ API key
│
│
└ enter
Pokrenite naredbu /models u TUI da vidite listu modela koje preporučujemo.
/models
Radi kao i svaki drugi provajder u OpenCode i potpuno je opcionalan za korištenje.
Pogledajmo neke od provajdera detaljno. Ako želite dodati provajdera na listu, slobodno otvori PR.
:::note Ne vidite provajdera ovdje? Pošaljite PR. :::
Idite na 302.AI konzolu, kreirajte račun i generirajte API ključ.
Pokrenite naredbu /connect i potražite 302.AI.
/connect
┌ API key
│
│
└ enter
/models da odaberete model. /models
Da biste koristili Amazon Bedrock s OpenCode:
Idite na Katalog modela na Amazon Bedrock konzoli i zatražite pristup modelima koje želite.
:::tip Morate imati pristup modelu koji želite u Amazon Bedrock. :::
Konfigurirajte autentifikaciju koristeći jedan od sljedećih metoda:
Postavite jednu od ovih varijabli okruženja dok pokrećete opencode:
# Option 1: Using AWS access keys
AWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY opencode
# Option 2: Using named AWS profile
AWS_PROFILE=my-profile opencode
# Option 3: Using Bedrock bearer token
AWS_BEARER_TOKEN_BEDROCK=XXX opencode
Ili ih dodajte na svoj bash profil:
export AWS_PROFILE=my-dev-profile
export AWS_REGION=us-east-1
Za konfiguraciju specifičnu za projekat ili trajnu konfiguraciju, koristite opencode.json:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"amazon-bedrock": {
"options": {
"region": "us-east-1",
"profile": "my-aws-profile"
}
}
}
}
Dostupne opcije:
region - AWS regija (npr. us-east-1, eu-west-1)profile - AWS je imenovao profil od ~/.aws/credentialsendpoint - URL prilagođene krajnje tačke za VPC krajnje tačke (pseudonim za generičku opciju baseURL):::tip Opcije konfiguracijske datoteke imaju prednost nad varijablama okruženja. :::
Ako koristite VPC krajnje tačke za Bedrock:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"amazon-bedrock": {
"options": {
"region": "us-east-1",
"profile": "production",
"endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"
}
}
}
}
:::note
Opcija endpoint je pseudonim za generičku opciju baseURL, koristeći terminologiju specifičnu za AWS. Ako su specificirani i endpoint i baseURL, endpoint ima prednost.
:::
AWS_ACCESS_KEY_ID / AWS_SECRET_ACCESS_KEY: Kreirajte IAM korisnika i generirajte pristupne ključeve u AWS konzoliAWS_PROFILE: Koristite imenovane profile od ~/.aws/credentials. Prvo konfigurirajte sa aws configure --profile my-profile ili aws sso loginAWS_BEARER_TOKEN_BEDROCK: Generirajte dugoročne API ključeve sa Amazon Bedrock konzoleAWS_WEB_IDENTITY_TOKEN_FILE / AWS_ROLE_ARN: Za EKS IRSA (IAM uloge za servisne naloge) ili druga Kubernetes okruženja sa OIDC federacijom. Kubernetes automatski ubacuje ove varijable okruženja kada se koriste napomene naloga usluge.Amazon Bedrock koristi sljedeći prioritet autentifikacije:
AWS_BEARER_TOKEN_BEDROCK varijabla okruženja ili token iz naredbe /connect:::note
Kada se postavi token nosioca (putem /connect ili AWS_BEARER_TOKEN_BEDROCK), on ima prednost nad svim AWS metodama akreditiva uključujući konfigurirane profile.
:::
/models da odaberete model koji želite. /models
:::note
Za prilagođene profile zaključivanja, koristite ime modela i dobavljača u ključu i postavite svojstvo id na arn. Ovo osigurava ispravno keširanje:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"amazon-bedrock": {
// ...
"models": {
"anthropic-claude-sonnet-4.5": {
"id": "arn:aws:bedrock:us-east-1:xxx:application-inference-profile/yyy"
}
}
}
}
}
:::
/connect i odaberite Anthropic. /connect
┌ Select auth method
│
│ Claude Pro/Max
│ Create an API Key
│ Manually enter API Key
└
/models. /models
:::info [Anthropic] (https://anthropic.com) službeno ne podržava korištenje vaše Claude Pro/Max pretplate u OpenCode. :::
Također možete odabrati Kreiraj API ključ ako nemate Pro/Max pretplatu. Također će otvoriti vaš pretraživač i zatražiti od vas da se prijavite na Anthropic i dati vam kod koji možete zalijepiti u svoj terminal.
Ili ako već imate API ključ, možete odabrati Ručno unesite API ključ i zalijepite ga u svoj terminal.
Možete konfigurirati opencode za korištenje lokalnih modela preko Atomic Chata — desktop aplikacije koja pokreće lokalne LLM-ove iza OpenAI-kompatibilnog API servera (zadana krajnja tačka http://127.0.0.1:1337/v1).
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"atomic-chat": {
"npm": "@ai-sdk/openai-compatible",
"name": "Atomic Chat (local)",
"options": {
"baseURL": "http://127.0.0.1:1337/v1"
},
"models": {
"<your-model-id>": {
"name": "<your-model-name>"
}
}
}
}
}
U ovom primjeru:
atomic-chat je prilagođeni ID provajdera. Može biti bilo koji niz.npm specificira paket koji se koristi za ovog provajdera. Ovdje se koristi @ai-sdk/openai-compatible za svaki OpenAI-kompatibilni API.name je prikazano ime provajdera u interfejsu.options.baseURL je krajnja tačka lokalnog servera. Promijenite host i port da odgovaraju vašoj Atomic Chat konfiguraciji.models je mapa ID-ova modela u njihova prikazana imena. Svaki ID mora odgovarati id vrijednosti koju vraća GET /v1/models — pokrenite curl http://127.0.0.1:1337/v1/models da vidite ID-ove trenutno učitane u Atomic Chat.:::tip Ako pozivi alata ne rade dobro, odaberite učitani model sa jakom podrškom za tool calling (na primjer, Qwen-Coder ili DeepSeek-Coder varijantu). :::
:::note Ako naiđete na greške "Žao mi je, ali ne mogu pomoći s tim zahtjevom", pokušajte promijeniti filter sadržaja iz DefaultV2 u Default u vašem Azure resursu. :::
Idite na Azure portal i kreirajte Azure OpenAI resurs. trebat će vam:
https://RESOURCE_NAME.openai.azure.com/)KEY 1 ili KEY 2 sa vašeg izvoraIdite na Azure AI Foundry i implementirajte model.
:::note Ime implementacije mora odgovarati imenu modela da bi opencode ispravno radio. :::
Pokrenite naredbu /connect i potražite Azure.
/connect
┌ API key
│
│
└ enter
AZURE_RESOURCE_NAME=XXX opencode
Ili ga dodajte na svoj bash profil:
export AZURE_RESOURCE_NAME=XXX
/models da odaberete svoj raspoređeni model. /models
Idite na Azure portal i kreirajte Azure OpenAI resurs. trebat će vam:
https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/)KEY 1 ili KEY 2 sa vašeg izvoraIdite na Azure AI Foundry i implementirajte model.
:::note Ime implementacije mora odgovarati imenu modela da bi opencode ispravno radio. :::
Pokrenite naredbu /connect i potražite Azure kognitivne usluge.
/connect
┌ API key
│
│
└ enter
AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX opencode
Ili ga dodajte na svoj bash profil:
export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX
/models da odaberete svoj raspoređeni model. /models
Idite na Baseten, kreirajte račun i generirajte API ključ.
Pokrenite naredbu /connect i potražite Baseten.
/connect
┌ API key
│
│
└ enter
/models da odaberete model. /models
Idite na Cerebras konzolu, kreirajte račun i generirajte API ključ.
Pokrenite naredbu /connect i potražite Cerebras.
/connect
┌ API key
│
│
└ enter
/models da odaberete model kao što je Qwen 3 Coder 480B. /models
Cloudflare AI Gateway vam omogućava da pristupite modelima iz OpenAI, Anthropic, Workers AI i više preko objedinjene krajnje tačke. Sa Unified Billing nisu vam potrebni posebni API ključevi za svakog provajdera.
Idite na Cloudflare kontrolnu tablu, idite na AI > AI Gateway i kreirajte novi pristupnik.
Postavite svoj ID naloga i ID pristupnika kao varijable okruženja.
export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-id
export CLOUDFLARE_GATEWAY_ID=your-gateway-id
/connect i potražite Cloudflare AI Gateway. /connect
┌ API key
│
│
└ enter
Ili ga postavite kao varijablu okruženja.
export CLOUDFLARE_API_TOKEN=your-api-token
/models da odaberete model. /models
Također možete dodati modele kroz svoju opencode konfiguraciju.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"cloudflare-ai-gateway": {
"models": {
"openai/gpt-4o": {},
"anthropic/claude-sonnet-4": {}
}
}
}
}
Idite na Cortecs konzolu, kreirajte račun i generirajte API ključ.
Pokrenite naredbu /connect i potražite Cortecs.
/connect
┌ API key
│
│
└ enter
/models da odaberete model kao što je Kimi K2 Instruct. /models
Idite na DeepSeek konzolu, kreirajte nalog i kliknite na Kreiraj novi API ključ.
Pokrenite naredbu /connect i potražite DeepSeek.
/connect
┌ API key
│
│
└ enter
/models da odaberete DeepSeek model kao što je DeepSeek V4 Pro. /models
Idite na Deep Infra kontrolnu tablu, kreirajte nalog i generišite API ključ.
Pokrenite naredbu /connect i potražite Deep Infra.
/connect
┌ API key
│
│
└ enter
/models da odaberete model. /models
Idite na kontrolnu tablu firmvera, kreirajte nalog i generišite API ključ.
Pokrenite naredbu /connect i potražite FrogBot.
/connect
┌ API key
│
│
└ enter
/models da odaberete model. /models
Idite na Fireworks AI konzolu, kreirajte račun i kliknite na Kreiraj API ključ.
Pokrenite naredbu /connect i potražite Fireworks AI.
/connect
┌ API key
│
│
└ enter
/models da odaberete model kao što je Kimi K2 Instruct. /models
GitLab Duo pruža agentsko ćaskanje sa AI-om sa izvornim mogućnostima pozivanja alata preko GitLab-ovog Anthropic proxyja.
/connect i odaberite GitLab. /connect
┌ Select auth method
│
│ OAuth (Recommended)
│ Personal Access Token
└
Odaberite OAuth i vaš pretraživač će se otvoriti za autorizaciju.
Kliknite Dodaj novi token
Naziv: OpenCode, opseg: api
Kopirajte token (počinje sa glpat-)
Unesite ga u terminal
Pokrenite naredbu /models da vidite dostupne modele.
/models
Dostupna su tri modela bazirana na Claudeu:
:::note Također možete odrediti 'GITLAB_TOKEN' varijablu okruženja ako ne želite da pohrani token u opencode auth memoriju. :::
:::note[Napomena o usklađenosti]
OpenCode koristi mali model za neke AI zadatke kao što je generiranje naslova sesije.
Podrazumevano je konfigurisan da koristi gpt-5-nano, a hostuje ga Zen. Da zaključate OpenCode
da biste koristili samo svoju vlastitu instancu koju hostuje GitLab, dodajte sljedeće u svoju
opencode.json fajl. Također se preporučuje da onemogućite dijeljenje sesije.
{
"$schema": "https://opencode.ai/config.json",
"small_model": "gitlab/duo-chat-haiku-4-5",
"share": "disabled"
}
:::
Za GitLab instance koje hostuju sami:
export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_TOKEN=glpat-...
Ako vaša instanca pokreće prilagođeni AI Gateway:
GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com
Ili dodajte na svoj bash profil:
export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com
export GITLAB_TOKEN=glpat-...
:::note Vaš GitLab administrator mora omogućiti sljedeće:
agent_platform_claude_codethird_party_agents_enabled
:::Da bi Oauth radio za vašu instancu koju sami hostujete, morate kreirati
novu aplikaciju (Podešavanja → Aplikacije) sa
URL povratnog poziva http://127.0.0.1:8080/callback i sljedeći opseg:
Zatim izložite ID aplikacije kao varijablu okruženja:
export GITLAB_OAUTH_CLIENT_ID=your_application_id_here
Više dokumentacije na početnoj stranici opencode-gitlab-auth.
Prilagodite putem opencode.json:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"gitlab": {
"options": {
"instanceUrl": "https://gitlab.com"
}
}
}
}
Za pristup GitLab alatima (zahtjevi za spajanje, problemi, cjevovodi, CI/CD, itd.):
{
"$schema": "https://opencode.ai/config.json",
"plugin": ["opencode-gitlab-plugin"]
}
Ovaj dodatak pruža sveobuhvatne mogućnosti upravljanja GitLab repozitorijumom, uključujući MR preglede, praćenje problema, praćenje procesa i još mnogo toga.
Da biste koristili svoju GitHub Copilot pretplatu s opencode:
:::note Neki modeli će možda trebati Pro+ pretplata za korištenje.
Neki modeli moraju biti ručno omogućeni u vašim postavkama GitHub Copilot. :::
/connect i potražite GitHub Copilot. /connect
┌ Login with GitHub Copilot
│
│ https://github.com/login/device
│
│ Enter code: 8F43-6FCF
│
└ Waiting for authorization...
/models da odaberete model koji želite. /models
Za korištenje Google Vertex AI s OpenCode:
Idite do Model Garden u Google Cloud Console i provjerite modeli dostupni u vašoj regiji.
:::note Morate imati Google Cloud projekat sa omogućenim Vertex AI API. :::
Postavite potrebne varijable okruženja:
GOOGLE_CLOUD_PROJECT: ID vašeg Google Cloud projektaVERTEX_LOCATION (opciono): Region za Vertex AI (podrazumevano na global)GOOGLE_APPLICATION_CREDENTIALS: Put do JSON ključnog fajla vašeg naloga uslugegcloud auth application-default loginPostavite ih dok se pokreće opencode.
GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencode
Ili ih dodajte svom bash profilu.
export GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json
export GOOGLE_CLOUD_PROJECT=your-project-id
export VERTEX_LOCATION=global
:::tip
Regija global poboljšava dostupnost i smanjuje greške bez dodatnih troškova. Koristite regionalne krajnje tačke (npr. us-central1) za zahtjeve rezidentnosti podataka. Saznajte više
:::
/models da odaberete model koji želite. /models
Idite na Groq konzolu, kliknite Kreiraj API ključ i kopirajte ključ.
Pokrenite naredbu /connect i potražite Groq.
/connect
┌ API key
│
│
└ enter
/models da odaberete onu koju želite. /models
Hugging Face Inference Providers omogućava pristup otvorenim modelima koje podržava 17+ provajdera.
Idite na Postavke zagrljaja da kreirate token s dozvolom za upućivanje poziva dobavljačima inference.
Pokrenite naredbu /connect i potražite Hugging Face.
/connect
┌ API key
│
│
└ enter
/models da odaberete model kao što je Kimi-K2-Instruct ili GLM-4.6. /models
Helicone je platforma za praćenje LLM koja pruža evidenciju, praćenje i analitiku za vaše AI aplikacije. Helicone AI Gateway automatski usmjerava vaše zahtjeve do odgovarajućeg provajdera na osnovu modela.
Idite na Helicone, kreirajte račun i generirajte API ključ sa svoje kontrolne table.
Pokrenite naredbu /connect i potražite Helicone.
/connect
┌ API key
│
│
└ enter
/models da odaberete model. /models
Za više provajdera i napredne funkcije kao što su keširanje i ograničavanje brzine, provjerite Helicone dokumentaciju.
U slučaju da vidite funkciju ili model iz Helicone-a koji nije automatski konfiguriran putem opencodea, uvijek ga možete sami konfigurirati.
Evo Heliconeov katalog modela, ovo će vam trebati da preuzmete ID-ove modela koje želite dodati.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"helicone": {
"npm": "@ai-sdk/openai-compatible",
"name": "Helicone",
"options": {
"baseURL": "https://ai-gateway.helicone.ai",
},
"models": {
"gpt-4o": {
// Model ID (from Helicone's model directory page)
"name": "GPT-4o", // Your own custom name for the model
},
"claude-sonnet-4-20250514": {
"name": "Claude Sonnet 4",
},
},
},
},
}
Helicone podržava prilagođena zaglavlja za funkcije kao što su keširanje, praćenje korisnika i upravljanje sesijom. Dodajte ih u konfiguraciju svog provajdera koristeći options.headers:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"helicone": {
"npm": "@ai-sdk/openai-compatible",
"name": "Helicone",
"options": {
"baseURL": "https://ai-gateway.helicone.ai",
"headers": {
"Helicone-Cache-Enabled": "true",
"Helicone-User-Id": "opencode",
},
},
},
},
}
Heliconeova funkcija Sessions vam omogućava da grupišete povezane LLM zahtjeve zajedno. Koristite dodatak opencode-helicone-session da automatski prijavite svaki OpenCode razgovor kao sesiju u Helicone-u.
npm install -g opencode-helicone-session
Dodajte ga u svoju konfiguraciju.
{
"plugin": ["opencode-helicone-session"]
}
Dodatak ubacuje zaglavlja Helicone-Session-Id i Helicone-Session-Name u vaše zahtjeve. Na stranici Helicone Sessions, vidjet ćete svaki OpenCode razgovor naveden kao zasebna sesija.
| Header | Opis |
|---|---|
Helicone-Cache-Enabled | Omogući keširanje odgovora (true/false) |
Helicone-User-Id | Pratite metriku po korisniku |
Helicone-Property-[Name] | Dodajte prilagođena svojstva (npr. Helicone-Property-Environment) |
Helicone-Prompt-Id | Povezivanje zahtjeva sa brzim verzijama |
Pogledajte Helicone Header Directory za sva dostupna zaglavlja.
Možete konfigurirati opencode za korištenje lokalnih modela putem llama.cpp's uslužnog programa llama-server
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"llama.cpp": {
"npm": "@ai-sdk/openai-compatible",
"name": "llama-server (local)",
"options": {
"baseURL": "http://127.0.0.1:8080/v1"
},
"models": {
"qwen3-coder:a3b": {
"name": "Qwen3-Coder: a3b-30b (local)",
"limit": {
"context": 128000,
"output": 65536
}
}
}
}
}
}
U ovom primjeru:
llama.cpp je ID prilagođenog provajdera. Ovo može biti bilo koji niz koji želite.npm specificira paket koji će se koristiti za ovog provajdera. Ovdje se @ai-sdk/openai-compatible koristi za bilo koji OpenAI kompatibilan API.name je ime za prikaz za provajdera u korisničkom sučelju.options.baseURL je krajnja tačka za lokalni server.models je mapa ID-ova modela prema njihovim konfiguracijama. Naziv modela će biti prikazan na listi za odabir modela.IO.NET nudi 17 modela optimiziranih za različite slučajeve upotrebe:
Idite na IO.NET konzolu, kreirajte račun i generirajte API ključ.
Pokrenite naredbu /connect i potražite IO.NET.
/connect
┌ API key
│
│
└ enter
/models da odaberete model. /models
Možete konfigurirati opencode za korištenje lokalnih modela preko LM Studio.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"lmstudio": {
"npm": "@ai-sdk/openai-compatible",
"name": "LM Studio (local)",
"options": {
"baseURL": "http://127.0.0.1:1234/v1"
},
"models": {
"google/gemma-3n-e4b": {
"name": "Gemma 3n-e4b (local)"
}
}
}
}
}
U ovom primjeru:
lmstudio je ID prilagođenog provajdera. Ovo može biti bilo koji niz koji želite.npm specificira paket koji će se koristiti za ovog provajdera. Ovdje se @ai-sdk/openai-compatible koristi za bilo koji OpenAI kompatibilan API.name je ime za prikaz za provajdera u korisničkom sučelju.options.baseURL je krajnja tačka za lokalni server.models je mapa ID-ova modela prema njihovim konfiguracijama. Naziv modela će biti prikazan na listi za odabir modela.Da biste koristili Kimi K2 iz Moonshot AI:
Idite na Moonshot AI konzolu, kreirajte nalog i kliknite na Kreiraj API ključ.
Pokrenite naredbu /connect i potražite Moonshot AI.
/connect
┌ API key
│
│
└ enter
/models da odaberete Kimi K2. /models
Prijeđite na MiniMax API konzolu, kreirajte račun i generirajte API ključ.
Pokrenite naredbu /connect i potražite MiniMax.
/connect
┌ API key
│
│
└ enter
/models da odaberete model kao što je M2.1. /models
Idite na Nebius Token Factory konzolu, kreirajte nalog i kliknite na Dodaj ključ.
Pokrenite naredbu /connect i potražite Nebius Token Factory.
/connect
┌ API key
│
│
└ enter
/models da odaberete model kao što je Kimi K2 Instruct. /models
Možete konfigurirati opencode za korištenje lokalnih modela putem Ollame.
:::tip Ollama se može automatski konfigurirati za OpenCode. Pogledajte Ollama integracijske dokumente za detalje. :::
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama (local)",
"options": {
"baseURL": "http://localhost:11434/v1"
},
"models": {
"llama2": {
"name": "Llama 2"
}
}
}
}
}
U ovom primjeru:
ollama je ID prilagođenog provajdera. Ovo može biti bilo koji niz koji želite.npm specificira paket koji će se koristiti za ovog provajdera. Ovdje se @ai-sdk/openai-compatible koristi za bilo koji OpenAI kompatibilan API.name je ime za prikaz za provajdera u korisničkom sučelju.options.baseURL je krajnja tačka za lokalni server.models je mapa ID-ova modela prema njihovim konfiguracijama. Naziv modela će biti prikazan na listi za odabir modela.:::tip
Ako pozivi alata ne rade, pokušajte povećati num_ctx u Ollama. Počnite oko 16k - 32k.
:::
Da biste koristili Ollama Cloud s OpenCode:
Idite na https://ollama.com/ i prijavite se ili kreirajte račun.
Idite na Postavke > Ključevi i kliknite na Dodaj API ključ da generišete novi API ključ.
Kopirajte API ključ za korištenje u OpenCode.
Pokrenite naredbu /connect i potražite Ollama Cloud.
/connect
┌ API key
│
│
└ enter
ollama pull gpt-oss:20b-cloud
/models da odaberete svoj model Ollama Cloud. /models
Preporučujemo da se prijavite za ChatGPT Plus ili Pro.
/connect i odaberite OpenAI. /connect
┌ Select auth method
│
│ ChatGPT Plus/Pro
│ Manually enter API Key
└
/models. /models
Ako već imate API ključ, možete odabrati Ručno unesite API ključ i zalijepite ga u svoj terminal.
OpenCode Zen je lista testiranih i verifikovanih modela koju je obezbedio OpenCode tim. Saznajte više.
Prijavite se na <a href={console}>OpenCode Zen</a> i kliknite na Kreiraj API ključ.
Pokrenite naredbu /connect i potražite OpenCode Zen.
/connect
┌ API key
│
│
└ enter
/models da odaberete model kao što je Qwen 3 Coder 480B. /models
Idite na OpenRouter nadzornu ploču, kliknite na Kreiraj API ključ i kopirajte ključ.
Pokrenite naredbu /connect i potražite OpenRouter.
/connect
┌ API key
│
│
└ enter
/models da odaberete onaj koji želite. /models
Također možete dodati dodatne modele putem vaše opencode konfiguracije.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openrouter": {
"models": {
"somecoolnewmodel": {}
}
}
}
}
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openrouter": {
"models": {
"moonshotai/kimi-k2": {
"options": {
"provider": {
"order": ["baseten"],
"allow_fallbacks": false
}
}
}
}
}
}
}
SAP AI Core omogućava pristup preko 40+ modela iz OpenAI, Anthropic, Google, Amazon, Meta, Mistral i AI21 putem objedinjene platforme.
Idite na vaš SAP BTP Cockpit, idite na instancu usluge SAP AI Core i kreirajte servisni ključ.
:::tip
Servisni ključ je JSON objekat koji sadrži clientid, clientsecret, url i serviceurls.AI_API_URL. Svoju AI Core instancu možete pronaći pod Usluge > Instance i pretplate u BTP kokpitu.
:::
Pokrenite naredbu /connect i potražite SAP AI Core.
/connect
┌ Service key
│
│
└ enter
Ili postavite varijablu okruženja AICORE_SERVICE_KEY:
AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' opencode
Ili ga dodajte na svoj bash profil:
export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}'
AICORE_DEPLOYMENT_ID=your-deployment-id AICORE_RESOURCE_GROUP=your-resource-group opencode
:::note Ove postavke su opcione i treba ih konfigurirati u skladu s vašim SAP AI Core postavkama. :::
Pokrenite naredbu /models da odaberete između 40+ dostupnih modela.
/models
STACKIT AI Model Serving pruža potpuno upravljano suvereno hosting okruženje za AI modele, fokusirajući se na LLM-ove kao što su Llama, Mistral i Qwen, uz maksimalan suverenitet podataka na evropskoj infrastrukturi.
Idite na STACKIT Portal, idite na AI Model Serving i kreirajte token za autentifikaciju za svoj projekat.
:::tip Potreban vam je STACKIT korisnički račun, korisnički nalog i projekat prije kreiranja tokena za autentifikaciju. :::
Pokrenite naredbu /connect i potražite STACKIT.
/connect
Unesite svoj STACKIT AI Model Serving token za autentifikaciju.
┌ API key
│
│
└ enter
Pokrenite naredbu /models da odaberete dostupne modele kao što su Qwen3-VL 235B ili Llama 3.3 70B.
/models
Idite na OVHcloud panel. Idite do odjeljka Public Cloud, AI & Machine Learning > AI Endpoints i na kartici API Keys kliknite na Kreiraj novi API ključ.
Pokrenite naredbu /connect i potražite OVHcloud AI krajnje točke.
/connect
┌ API key
│
│
└ enter
/models da odaberete model kao što je gpt-oss-120b. /models
Da biste koristili Scaleway Generative APIs sa Opencodeom:
Prijeđite na Scaleway Console IAM postavke da generišete novi API ključ.
Pokrenite naredbu /connect i potražite Scaleway.
/connect
┌ API key
│
│
└ enter
/models da odaberete model kao što je devstral-2-123b-instruct-2512 ili gpt-oss-120b. /models
Idite na Together AI console, kreirajte nalog i kliknite na Dodaj ključ.
Pokrenite naredbu /connect i potražite Together AI.
/connect
┌ API key
│
│
└ enter
/models da odaberete model kao što je Kimi K2 Instruct. /models
Idite na Venice AI konzolu, kreirajte račun i generirajte API ključ.
Pokrenite naredbu /connect i potražite Venice AI.
/connect
┌ API key
│
│
└ enter
/models da odaberete model kao što je Llama 3.3 70B. /models
Vercel AI Gateway vam omogućava da pristupite modelima iz OpenAI, Anthropic, Google, xAI i drugih putem objedinjene krajnje tačke. Modeli se nude po kataloškim cijenama bez maraka.
Idite na Vercel kontrolnu tablu, idite na karticu AI Gateway i kliknite na API ključevi da kreirate novi API ključ.
Pokrenite naredbu /connect i potražite Vercel AI Gateway.
/connect
┌ API key
│
│
└ enter
/models da odaberete model. /models
Također možete prilagoditi modele kroz svoju opencode konfiguraciju. Evo primjera specificiranja redoslijeda usmjeravanja dobavljača.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"vercel": {
"models": {
"anthropic/claude-sonnet-4": {
"options": {
"order": ["anthropic", "vertex"]
}
}
}
}
}
}
Neke korisne opcije rutiranja:
| Opcija | Opis |
|---|---|
order | Redoslijed dobavljača za pokušaj |
only | Ograničiti na određene provajdere |
zeroDataRetention | Koristite samo provajdere sa nultom politikom zadržavanja podataka |
Prijeđite na xAI konzolu, kreirajte račun i generirajte API ključ.
Pokrenite naredbu /connect i potražite xAI.
/connect
┌ API key
│
│
└ enter
/models da odaberete model kao što je Grok Beta. /models
Idite na Z.AI API konzolu, kreirajte nalog i kliknite na Kreiraj novi API ključ.
Pokrenite naredbu /connect i potražite Z.AI.
/connect
Ako ste pretplaćeni na GLM plan kodiranja, odaberite Z.AI plan kodiranja.
┌ API key
│
│
└ enter
/models da odaberete model kao što je GLM-4.7. /models
Idite na ZenMux kontrolnu tablu, kliknite na Kreiraj API ključ i kopirajte ključ.
Pokrenite naredbu /connect i potražite ZenMux.
/connect
┌ API key
│
│
└ enter
/models da odaberete onaj koji želite. /models
Također možete dodati dodatne modele putem vaše opencode konfiguracije.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"zenmux": {
"models": {
"somecoolnewmodel": {}
}
}
}
}
Da biste dodali bilo kojeg OpenAI-kompatibilnog provajdera koji nije naveden u naredbi /connect:
:::tip Možete koristiti bilo kojeg OpenAI kompatibilnog provajdera s opencode-om. Većina modernih AI provajdera nudi API-je kompatibilne sa OpenAI. :::
/connect i pomaknite se prema dolje do Ostalo. $ /connect
┌ Add credential
│
◆ Select provider
│ ...
│ ● Other
└
$ /connect
┌ Add credential
│
◇ Enter provider id
│ myprovider
└
:::note Odaberite ID koji se pamti, to ćete koristiti u svom konfiguracijskom fajlu. :::
$ /connect
┌ Add credential
│
▲ This only stores a credential for myprovider - you will need to configure it in opencode.json, check the docs for examples.
│
◇ Enter your API key
│ sk-...
└
opencode.json datoteku u direktoriju projekta:{
"$schema": "https://opencode.ai/config.json",
"provider": {
"myprovider": {
"npm": "@ai-sdk/openai-compatible",
"name": "My AI ProviderDisplay Name",
"options": {
"baseURL": "https://api.myprovider.com/v1"
},
"models": {
"my-model-name": {
"name": "My Model Display Name"
}
}
}
}
}
Evo opcija konfiguracije:
@ai-sdk/openai-compatible za OpenAI-kompatibilne provajdereViše o naprednim opcijama u primjeru ispod.
/models i vaš prilagođeni provajder i modeli će se pojaviti na listi izbora.Evo primjera postavljanja opcija apiKey, headers i modela limit.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"myprovider": {
"npm": "@ai-sdk/openai-compatible",
"name": "My AI ProviderDisplay Name",
"options": {
"baseURL": "https://api.myprovider.com/v1",
"apiKey": "{env:ANTHROPIC_API_KEY}",
"headers": {
"Authorization": "Bearer custom-token"
}
},
"models": {
"my-model-name": {
"name": "My Model Display Name",
"limit": {
"context": 200000,
"output": 65536
}
}
}
}
}
}
Detalji konfiguracije:
env, saznajte više.Polja limit omogućavaju OpenCode da shvati koliko vam je konteksta ostalo. Standardni dobavljači ih automatski preuzimaju sa models.dev.
Ako imate problema s konfiguracijom provajdera, provjerite sljedeće:
Provjerite postavke autentifikacije: Pokrenite opencode auth list da vidite da li su vjerodajnice
za provajdera se dodaju u vašu konfiguraciju.
Ovo se ne odnosi na dobavljače kao što je Amazon Bedrock, koji se oslanjaju na varijable okruženja za svoju autentifikaciju.
Za prilagođene provajdere, provjerite OpenCode konfiguraciju i:
/connect odgovara ID-u u vašoj opencode konfiguraciji.@ai-sdk/cerebras za Cerebras. A za sve ostale OpenAI kompatibilne provajdere, koristite @ai-sdk/openai-compatible.options.baseURL.