⚡ Быстрый старт
Начните использовать LLM Proxy за несколько минут
Введение
LLM Proxy предоставляет OpenAI-совместимый API для доступа к различным языковым моделям. Используйте любой клиент, поддерживающий OpenAI API.
http://localhost:8001/v1Аутентификация: Bearer token с вашим API ключом (префикс
rp_)
💡 Совет: Создайте API ключ в разделе API ключи перед началом работы.
Доступные модели
В настоящее время доступны 3 модели:
gpt-oss-120b
OpenAI GPT-OSS-120B
- 117B параметров MoE архитектура
- Оптимизирован для скорости
- Контекст: 131,072 токенов
- Цена: ₽5.07/1M входных, ₽24.70/1M выходных
deepseek-v3.2
DeepSeek V3.2
- Мощные способности к рассуждениям
- Класс GPT-5 производительности
- Контекст: 163,840 токенов
- Цена: ₽35.10/1M входных, ₽52.00/1M выходных
gemini-3-flash-preview
Google Gemini 3 Flash Preview
- Быстрая мультимодальная модель
- Огромный контекст: 1,048,576 токенов
- Предварительная версия
- Цена: ₽65.00/1M входных, ₽390.00/1M выходных
Прямые API запросы
Используйте стандартные HTTP запросы к нашему API.
Python
import requests
import json
response = requests.post(
url="http://localhost:8001/v1/chat/completions",
headers={
"Authorization": "Bearer rp_ваш_api_ключ",
"Content-Type": "application/json",
},
data=json.dumps({
"model": "deepseek-v3.2",
"messages": [
{"role": "user", "content": "Привет! Как дела?"}
]
})
)
data = response.json()
print(data['choices'][0]['message']['content'])
JavaScript (fetch)
const response = await fetch('http://localhost:8001/v1/chat/completions', {
method: 'POST',
headers: {
'Authorization': 'Bearer rp_ваш_api_ключ',
'Content-Type': 'application/json',
},
body: JSON.stringify({
model: 'deepseek-v3.2',
messages: [
{role: 'user', content: 'Привет! Как дела?'}
]
})
});
const data = await response.json();
console.log(data.choices[0].message.content);
cURL
curl http://localhost:8001/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer rp_ваш_api_ключ" \
-d '{
"model": "deepseek-v3.2",
"messages": [
{"role": "user", "content": "Привет! Как дела?"}
]
}'
Пример ответа
{
"id": "chatcmpl-123",
"object": "chat.completion",
"created": 1677652288,
"model": "deepseek-v3.2",
"choices": [{
"index": 0,
"message": {
"role": "assistant",
"content": "Привет! У меня всё отлично, спасибо! Как я могу помочь?"
},
"finish_reason": "stop"
}],
"usage": {
"prompt_tokens": 12,
"completion_tokens": 15,
"total_tokens": 27
}
}
Использование OpenAI SDK
Наш API полностью совместим с OpenAI SDK. Просто измените base_url:
Python
from openai import OpenAI
# Инициализация клиента
client = OpenAI(
api_key="rp_ваш_api_ключ",
base_url="http://localhost:8001/v1"
)
# Обычный запрос
response = client.chat.completions.create(
model="deepseek-v3.2",
messages=[
{"role": "system", "content": "Ты полезный ассистент."},
{"role": "user", "content": "Объясни квантовую физику простыми словами."}
]
)
print(response.choices[0].message.content)
TypeScript
import OpenAI from 'openai';
const openai = new OpenAI({
baseURL: 'http://localhost:8001/v1',
apiKey: 'rp_ваш_api_ключ',
});
async function main() {
const completion = await openai.chat.completions.create({
model: 'deepseek-v3.2',
messages: [
{role: 'system', content: 'Ты полезный ассистент.'},
{role: 'user', content: 'Объясни квантовую физику простыми словами.'}
],
});
console.log(completion.choices[0].message.content);
}
main();
Потоковый режим
Получайте ответ по мере генерации, установив stream: true.
Python с OpenAI SDK
from openai import OpenAI
client = OpenAI(
api_key="rp_ваш_api_ключ",
base_url="http://localhost:8001/v1"
)
stream = client.chat.completions.create(
model="deepseek-v3.2",
messages=[{"role": "user", "content": "Напиши короткий рассказ"}],
stream=True
)
for chunk in stream:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="")
JavaScript с fetch
const response = await fetch('http://localhost:8001/v1/chat/completions', {
method: 'POST',
headers: {
'Authorization': 'Bearer rp_ваш_api_ключ',
'Content-Type': 'application/json',
},
body: JSON.stringify({
model: 'deepseek-v3.2',
messages: [{role: 'user', content: 'Напиши короткий рассказ'}],
stream: true
})
});
const reader = response.body.getReader();
const decoder = new TextDecoder();
while (true) {
const {done, value} = await reader.read();
if (done) break;
const chunk = decoder.decode(value);
const lines = chunk.split('\n');
for (const line of lines) {
if (line.startsWith('data: ')) {
const data = line.slice(6);
if (data === '[DONE]') continue;
try {
const json = JSON.parse(data);
const content = json.choices?.[0]?.delta?.content;
if (content) {
process.stdout.write(content);
}
} catch (e) {}
}
}
}
Попробуйте в Playground
Самый простой способ протестировать API — использовать встроенный Playground. Выберите модель, введите API ключ и начните чат прямо в браузере.