🔥 OpenAI выпустили открытые модели GPT-OSS

🧠 Представлено два варианта:
— GPT-OSS-120B (https://huggingface.co/openai/gpt-oss-120b)— 117B параметров, запускается на одной H100 (80GB)
— GPT-OSS-20B (https://huggingface.co/openai/gpt-oss-20b)— 21B параметров, работает на 16GB GPU
💡 Оба варианта — MoE-модели (Mixture of Experts) с 4-битной квантизацией (MXFP4)
✔ Особенности:
- Архитектура Token-choice MoE с SwiGLU
- Контекст до 128K токенов с RoPE
- Модель заточена на CoT (chain-of-thought)
- Поддержка instruction-following и tool-use
- Совместима с transformers, vLLM, llama.cpp, ollama
- Используется тот же токенизатор, что и в GPT-4o
Младшая модель может запускаться даже на локальном железе!
GPT-OSS обучена на английских текстах, так что для других регионов нужен переводчик или доработка качества.
🏴☠Лицензирование: Apache 2.0
https://github.com/huggingface/transformers/releases/tag/v4.55.0
Цены на модели
Модель: $0.25/$0.69 за млн токенов — дороже GPU, но быстрее в разы. Groq: 120B (500 ток/с, $0.15/$0.75 за млн), 20B (1000 ток/с, $0.1/$0.5 за млн).
🚀 Попробовать можно тут: https://www.gpt-oss.com/
💥 Официальный релиз: http://openai.com/open-models
openai #opensource #chatgp



