OpenAI-kvalitet, Open-Weight frihed
gpt-oss-120b er OpenAIs første open-weight model — Apache 2.0 licenseret, designet til produktions-agentiske workloads. Det er ikke den mest prangende model, men den du kan stole på dag efter dag.
Indbygget Reasoning
Chain-of-thought reasoning med justerbare indsatsniveauer — optimer for hastighed eller nøjagtighed per opgave.
Produktionsklar
Matcher GPT-4o på de fleste opgaver. Slår det på reasoning-tunge benchmarks.
Bedste værdi
Bedste pris-til-intelligens ratio ifølge Artificial Analysis.
Effektiv fra design
| Totale parametre | 117B |
| Aktive parametre | 5.1B per forward pass |
| Arkitektur | Mixture of Experts (MoE) |
| Eksperter | 128 experts, Top-4 routing per token |
| Lag | 36 |
| Kontekstlængde | 131K tokens |
| Licens | Apache 2.0 |
Målt på EU-infrastruktur
10K input / 1K output, 1 samtidig, 10 requests
Op til 772 tok/s på kortere prompts. Sidst målt: april 2026.
Hvorfor den er så hurtig
MoE-arkitekturen betyder 117B model-kvalitet med kun 5,1B aktive parametre per request — derfor er den så hurtig.
- 22x færre aktive parametre per inferens
- Lavere krav til hukommelsesbåndbredde
- Ekspert-routing optimeret for hver token
- Samme kvalitet, brøkdel af beregningen
Ikke til udviklere. Til agenter.
"If you're building a public-facing AI agent, gpt-oss is your best bet — it's the best privately hostable model that functions on a single high-end GPU in production."
— Tigris
Reasoning-kontrol
Juster tænkeindsats (lav/mellem/høj) per opgave
Function Calling
Native tool-brug til agentiske workflows
Strukturerede outputs
JSON-tilstand til pålidelig parsing
Web Browsing
Indbygget kapabilitet til research-agenter
Naviger websites, udtræk data og udfør flertrinns research-opgaver autonomt.
Kodeudførelse
Python-udførelse til dataanalyse-agenter
Kør Python i et sandboxet miljø til databehandling, beregninger og analyse.
Den rigtige model til den rigtige opgave
Ikke hver request har brug for din dyreste model. Smarte teams bruger gpt-oss-120b som del af en multi-model strategi.
"The technical quality is undeniable, and the chain-of-thought reasoning system is genuinely innovative in the open-weight space."
— Apatero (2026 Review)
Balanced Mode
I balanced mode: Matcher GPT-4o på de fleste opgaver
Deep Mode
I deep mode: Slår GPT-4o på reasoning (MATH, HumanEval)
Cost Efficiency
Til en brøkdel af prisen for proprietære modeller
| Scenarie | Modelvalg |
|---|---|
| Kompleks reasoning | gpt-oss-120b (høj indsats) |
| Standardopgaver | gpt-oss-120b (mellem indsats) |
| Simple forespørgsler | gpt-oss-120b (lav indsats) |
| Premium-opgaver | MiniMax M2.5 |
"We optimized workflows twice: once for accuracy + latency, and once for accuracy + cost—capturing the tradeoffs that matter most in real-world deployments."
— DataRobot
OpenAI Open-Weight på EU-infrastruktur
Kør OpenAIs open-weight model uden at sende data til USA:
- Hostet i Tyskland på Infercom-ejet infrastruktur
- Fuld GDPR-overholdelse med EU-baseret DPA
- Ingen US CLOUD Act-eksponering
- ISO 27001 certificeret
- Apache 2.0 licens — fuld frihed til at deploye
Kom i gang på 2 minutter
from openai import OpenAI
client = OpenAI(
api_key="your-infercom-key",
base_url="https://api.infercom.ai/v1"
)
response = client.chat.completions.create(
model="gpt-oss-120b",
messages=[{"role": "user", "content": "Your prompt here"}],
max_tokens=4096
)
print(response.choices[0].message.content)