Рассуждения (Reasoning)
Некоторые модели (o3, Gemini 2.5, DeepSeek R1, Kimi K2.5 и другие) поддерживают вывод цепочки рассуждений. Контент рассуждений автоматически включается в ответ, когда модель его предоставляет — дополнительных параметров не требуется.
Формат ответа
Рассуждения возвращаются в поле reasoning_content (стандарт OpenAI API):
{
"choices": [{
"message": {
"role": "assistant",
"content": "Площадь круга равна π × 5² = 78.54 кв.см.",
"reasoning_content": "Пользователь спрашивает про площадь круга с радиусом 5. Формула: S = πr²..."
}
}],
"usage": {
"prompt_tokens": 25,
"completion_tokens": 180,
"total_tokens": 205,
"completion_tokens_details": {
"reasoning_tokens": 130
}
}
}
Стриминг
При стриминге рассуждения приходят в delta.reasoning_content перед основным контентом:
data: {"choices":[{"delta":{"reasoning_content":"Пользователь спрашивает..."}}]}
data: {"choices":[{"delta":{"reasoning_content":"Далее..."}}]}
data: {"choices":[{"delta":{"content":"Ответ модели..."}}]}
data: [DONE]
Пример
from openai import OpenAI
client = OpenAI(
api_key="rp_ваш_api_ключ",
base_url="https://api.modelgate.ru/v1"
)
response = client.chat.completions.create(
model="deepseek-r1",
messages=[{"role": "user", "content": "Реши задачу: 2+2=?"}]
)
message = response.choices[0].message
print("Ответ:", message.content)
print("Рассуждения:", message.reasoning_content)
import OpenAI from 'openai';
const client = new OpenAI({
apiKey: 'rp_ваш_api_ключ',
baseURL: 'https://api.modelgate.ru/v1',
});
const response = await client.chat.completions.create({
model: 'deepseek-r1',
messages: [{ role: 'user', content: 'Реши задачу: 2+2=?' }],
});
const message = response.choices[0].message;
console.log('Ответ:', message.content);
console.log('Рассуждения:', message.reasoning_content);
curl -X POST https://api.modelgate.ru/v1/chat/completions \
-H "Authorization: Bearer rp_ваш_api_ключ" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-r1",
"messages": [{"role": "user", "content": "Реши задачу: 2+2=?"}]
}'
Модели с поддержкой рассуждений
ModelGate поддерживает множество моделей с chain-of-thought рассуждениями:
Полный список моделей доступен на странице моделей.
Примечание: Поле
reasoning_content присутствует только у моделей с поддержкой рассуждений. Токены рассуждений учитываются в completion_tokens и отдельно в completion_tokens_details.reasoning_tokens.