Qualita OpenAI, liberta Open-Weight
gpt-oss-120b e il primo modello open-weight di OpenAI — licenza Apache 2.0, progettato per workload agentici di produzione. Non e il modello piu appariscente, ma quello su cui puoi contare giorno dopo giorno.
Reasoning Integrato
Reasoning chain-of-thought con livelli di sforzo regolabili — ottimizza per velocita o precisione per compito.
Pronto per la produzione
Eguaglia GPT-4o sulla maggior parte dei compiti. Lo supera sui benchmark di reasoning.
Miglior valore
Miglior rapporto prezzo-intelligenza secondo Artificial Analysis.
Efficiente per design
| Parametri totali | 117B |
| Parametri attivi | 5.1B per forward pass |
| Architettura | Mixture of Experts (MoE) |
| Esperti | 128 experts, Top-4 routing per token |
| Layer | 36 |
| Lunghezza contesto | 131K tokens |
| Licenza | Apache 2.0 |
Misurato su infrastruttura UE
10K input / 1K output, 1 concorrente, 10 richieste
Fino a 772 tok/s su prompt piu brevi. Ultima misurazione: aprile 2026.
Perche e cosi veloce
L'architettura MoE significa qualita di un modello 117B attivando solo 5,1B parametri per richiesta — ecco perche e cosi veloce.
- 22x meno parametri attivi per inferenza
- Minori requisiti di banda di memoria
- Routing degli esperti ottimizzato per ogni token
- Stessa qualita, frazione del calcolo
Non per sviluppatori. Per agenti.
"If you're building a public-facing AI agent, gpt-oss is your best bet — it's the best privately hostable model that functions on a single high-end GPU in production."
— Tigris
Controllo reasoning
Regola lo sforzo di pensiero (basso/medio/alto) per compito
Function Calling
Uso nativo degli strumenti per workflow agentici
Output strutturati
Modalita JSON per parsing affidabile
Web Browsing
Capacita integrata per agenti di ricerca
Naviga siti web, estrai dati ed esegui attivita di ricerca multi-step in autonomia.
Esecuzione codice
Esecuzione Python per agenti di analisi dati
Esegui Python in un ambiente sandbox per elaborazione dati, calcoli e analisi.
Il modello giusto per il compito giusto
Non ogni richiesta ha bisogno del tuo modello piu costoso. I team intelligenti usano gpt-oss-120b come parte di una strategia multi-modello.
"The technical quality is undeniable, and the chain-of-thought reasoning system is genuinely innovative in the open-weight space."
— Apatero (2026 Review)
Balanced Mode
In modalita balanced: Eguaglia GPT-4o sulla maggior parte dei compiti
Deep Mode
In modalita deep: Supera GPT-4o sul reasoning (MATH, HumanEval)
Cost Efficiency
A una frazione del costo dei modelli proprietari
| Scenario | Scelta modello |
|---|---|
| Reasoning complesso | gpt-oss-120b (sforzo alto) |
| Compiti standard | gpt-oss-120b (sforzo medio) |
| Query semplici | gpt-oss-120b (sforzo basso) |
| Compiti premium | MiniMax M2.5 |
"We optimized workflows twice: once for accuracy + latency, and once for accuracy + cost—capturing the tradeoffs that matter most in real-world deployments."
— DataRobot
OpenAI Open-Weight su infrastruttura UE
Esegui il modello open-weight di OpenAI senza inviare dati negli USA:
- Ospitato in Germania su infrastruttura di proprieta Infercom
- Piena conformita GDPR con DPA basato in UE
- Nessuna esposizione al US CLOUD Act
- Certificato ISO 27001
- Licenza Apache 2.0 — piena liberta di deploy
Inizia in 2 minuti
from openai import OpenAI
client = OpenAI(
api_key="your-infercom-key",
base_url="https://api.infercom.ai/v1"
)
response = client.chat.completions.create(
model="gpt-oss-120b",
messages=[{"role": "user", "content": "Your prompt here"}],
max_tokens=4096
)
print(response.choices[0].message.content)