Рассуждения (Reasoning)

Некоторые модели (o3, Gemini 2.5, DeepSeek R1, Kimi K2.5 и другие) поддерживают вывод цепочки рассуждений. Контент рассуждений автоматически включается в ответ, когда модель его предоставляет — дополнительных параметров не требуется.

Формат ответа

Рассуждения возвращаются в поле reasoning_content (стандарт OpenAI API):

{
  "choices": [{
    "message": {
      "role": "assistant",
      "content": "Площадь круга равна π × 5² = 78.54 кв.см.",
      "reasoning_content": "Пользователь спрашивает про площадь круга с радиусом 5. Формула: S = πr²..."
    }
  }],
  "usage": {
    "prompt_tokens": 25,
    "completion_tokens": 180,
    "total_tokens": 205,
    "completion_tokens_details": {
      "reasoning_tokens": 130
    }
  }
}

Стриминг

При стриминге рассуждения приходят в delta.reasoning_content перед основным контентом:

data: {"choices":[{"delta":{"reasoning_content":"Пользователь спрашивает..."}}]}
data: {"choices":[{"delta":{"reasoning_content":"Далее..."}}]}
data: {"choices":[{"delta":{"content":"Ответ модели..."}}]}
data: [DONE]

Пример

from openai import OpenAI

client = OpenAI(
    api_key="rp_ваш_api_ключ",
    base_url="https://api.modelgate.ru/v1"
)

response = client.chat.completions.create(
    model="deepseek-r1",
    messages=[{"role": "user", "content": "Реши задачу: 2+2=?"}]
)

message = response.choices[0].message
print("Ответ:", message.content)
print("Рассуждения:", message.reasoning_content)
import OpenAI from 'openai';

const client = new OpenAI({
    apiKey: 'rp_ваш_api_ключ',
    baseURL: 'https://api.modelgate.ru/v1',
});

const response = await client.chat.completions.create({
    model: 'deepseek-r1',
    messages: [{ role: 'user', content: 'Реши задачу: 2+2=?' }],
});

const message = response.choices[0].message;
console.log('Ответ:', message.content);
console.log('Рассуждения:', message.reasoning_content);
curl -X POST https://api.modelgate.ru/v1/chat/completions \
  -H "Authorization: Bearer rp_ваш_api_ключ" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek-r1",
    "messages": [{"role": "user", "content": "Реши задачу: 2+2=?"}]
  }'

Модели с поддержкой рассуждений

ModelGate поддерживает множество моделей с chain-of-thought рассуждениями:

Полный список моделей доступен на странице моделей.

Примечание: Поле reasoning_content присутствует только у моделей с поддержкой рассуждений. Токены рассуждений учитываются в completion_tokens и отдельно в completion_tokens_details.reasoning_tokens.