Документация
Aproject Proxy — единый OpenAI-совместимый API для работы с GPT, Claude и Gemini. 37 моделей от 3 провайдеров. Оплата в рублях, самые низкие цены в России.
OpenAI-совместимый
Работает с любым SDK без изменений в коде
37 моделей
OpenAI, Anthropic, Google AI — 3 провайдера
Оплата ₽
Баланс в рублях, привязка к курсу ЦБ
Быстрый старт
- 1 Зарегистрируйтесь на proxy.aproject.com — вход по email без пароля
- 2 Пополните баланс в разделе Dashboard
- 3 Создайте API-ключ в разделе Ключи
- 4 Замените base_url в вашем коде
from openai import OpenAI
client = OpenAI(
base_url="https://proxy.aproject.com/v1",
api_key="sk-ap-YOUR_KEY"
)
response = client.chat.completions.create(
model="claude-sonnet-4-6",
messages=[{"role": "user", "content": "Привет!"}]
)
print(response.choices[0].message.content)
curl https://proxy.aproject.com/v1/chat/completions \
-H "Authorization: Bearer sk-ap-YOUR_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-4.1",
"messages": [{"role": "user", "content": "Hello!"}]
}'
import OpenAI from "openai";
const client = new OpenAI({
baseURL: "https://proxy.aproject.com/v1",
apiKey: "sk-ap-YOUR_KEY",
});
const response = await client.chat.completions.create({
model: "gemini-2.5-pro",
messages: [{ role: "user", content: "Hello!" }],
});
console.log(response.choices[0].message.content);
Аутентификация
Все запросы к API должны содержать заголовок Authorization с вашим API-ключом:
Authorization: Bearer sk-ap-YOUR_KEY
API-ключи имеют формат sk-ap- + 32 символа. Создать ключ можно в разделе Ключи вашего dashboard.
Base URL
https://proxy.aproject.com/v1
Все OpenAI-совместимые эндпоинты доступны по этому адресу. Для нативного Gemini API используйте /v1beta.
Chat Completions
/v1/chat/completions
Основной эндпоинт для текстовой генерации. Полностью совместим с OpenAI Chat Completions API.
Параметры запроса
| Параметр | Тип | Описание |
|---|---|---|
| model | string required | ID модели. Список всех моделей: /v1/models |
| messages | array required | Массив сообщений [{role, content}] |
| stream | boolean optional | Потоковая передача (SSE). Default: false |
| temperature | number optional | Температура генерации 0–2. Default: 1 |
| max_tokens | integer optional | Максимальное количество токенов в ответе |
| top_p | number optional | Nucleus sampling. Default: 1 |
| tools | array optional | Список функций (function calling) |
| tool_choice | string/object optional | Управление вызовом функций |
{
"model": "gpt-4.1",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "What is 2+2?"}
],
"temperature": 0.7,
"max_tokens": 500
}
{
"id": "chatcmpl-abc123",
"object": "chat.completion",
"created": 1720000000,
"model": "gpt-4.1",
"choices": [{
"index": 0,
"message": {
"role": "assistant",
"content": "2+2 = 4"
},
"finish_reason": "stop"
}],
"usage": {
"prompt_tokens": 25,
"completion_tokens": 8,
"total_tokens": 33
}
}
Streaming
Для получения ответа в режиме реального времени установите stream: true.
Ответ передаётся в формате Server-Sent Events (SSE).
from openai import OpenAI
client = OpenAI(
base_url="https://proxy.aproject.com/v1",
api_key="sk-ap-YOUR_KEY"
)
stream = client.chat.completions.create(
model="claude-sonnet-4-6",
messages=[{"role": "user", "content": "Напиши стихотворение"}],
stream=True,
)
for chunk in stream:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="", flush=True)
const stream = await client.chat.completions.create({
model: "gemini-2.5-flash",
messages: [{ role: "user", content: "Расскажи анекдот" }],
stream: true,
});
for await (const chunk of stream) {
process.stdout.write(chunk.choices[0]?.delta?.content ?? "");
}
Images
/v1/images/generations
Генерация изображений. Поддерживаются модели gpt-image-1 (OpenAI) и nano-banana (Google Gemini).
response = client.images.generate(
model="gpt-image-1",
prompt="Sunset over mountains, photorealistic",
size="1024x1024",
quality="standard",
n=1,
)
print(response.data[0].b64_json) # base64-encoded image
Embeddings
/v1/embeddings
Генерация векторных представлений текста. Поддерживаемые модели: text-embedding-3-large, text-embedding-3-small (OpenAI), text-embedding-004 (Google).
response = client.embeddings.create(
model="text-embedding-3-small",
input="Текст для векторизации"
)
print(response.data[0].embedding[:5]) # [0.023, -0.012, ...]
curl https://proxy.aproject.com/v1/embeddings \
-H "Authorization: Bearer sk-ap-YOUR_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "text-embedding-3-small",
"input": "Текст для векторизации"
}'
Audio (TTS / STT)
/v1/audio/speech
Синтез речи. Модели: tts-1, tts-1-hd.
response = client.audio.speech.create(
model="tts-1",
voice="alloy",
input="Привет, это тестовое сообщение."
)
response.stream_to_file("output.mp3")
/v1/audio/transcriptions
Транскрибация аудио (Speech-to-Text). Модель: whisper-1.
audio_file = open("recording.mp3", "rb")
response = client.audio.transcriptions.create(
model="whisper-1",
file=audio_file
)
print(response.text)
Список моделей
/v1/models
curl https://proxy.aproject.com/v1/models \
-H "Authorization: Bearer sk-ap-YOUR_KEY"
{
"object": "list",
"data": [
{"id": "gpt-4.1", "object": "model", "created": 1720000000, "owned_by": "openai"},
{"id": "claude-sonnet-4-6", "object": "model", "created": 1720000000, "owned_by": "anthropic"},
...
]
}
Gemini Native API
/v1beta/models/{'{model}'}:generateContent
Нативный Google Gemini API для клиентов, использующих официальный Google AI SDK.
import google.generativeai as genai
genai.configure(
api_key="sk-ap-YOUR_KEY",
transport="rest",
client_options={"api_endpoint": "proxy.aproject.com"}
)
model = genai.GenerativeModel("gemini-2.5-pro")
response = model.generate_content("What is the meaning of life?")
print(response.text)
Доступные модели
OpenAI — GPT-5
| Model ID | Описание | Тип |
|---|---|---|
| gpt-5.2 | Флагманская GPT-5.2, $1.75/M input | chat |
| gpt-5 | GPT-5, $1.25/M input | chat |
| gpt-5-mini | Экономичная GPT-5 mini, $0.25/M input | chat |
OpenAI — GPT-4
| Model ID | Описание | Тип |
|---|---|---|
| gpt-4.1 | GPT-4.1 — надёжная рабочая лошадка | chat |
| gpt-4.1-mini | Быстрая GPT-4.1 mini | chat |
| gpt-4.1-nano | Сверхбыстрая GPT-4.1 nano | chat |
| gpt-4o | GPT-4o с multimodal возможностями | chat |
| gpt-4o-mini | Экономичная GPT-4o mini | chat |
| chatgpt-4o-latest | ChatGPT-4o latest | chat |
| gpt-4-turbo | GPT-4 Turbo (legacy) | chat |
OpenAI — Reasoning
| Model ID | Описание | Тип |
|---|---|---|
| o3 | Reasoning o3 | reasoning |
| o3-pro | Reasoning o3 Pro — максимальное качество | reasoning |
| o3-mini | Экономичная reasoning o3-mini | reasoning |
| o4-mini | Быстрая reasoning o4-mini | reasoning |
OpenAI — Images, Audio, Embeddings
| Model ID | Описание | Тип |
|---|---|---|
| gpt-image-1 | Генерация изображений GPT Image | image |
| dall-e-3 | DALL-E 3 генерация изображений | image |
| tts-1 | Text-to-Speech стандартное качество | audio |
| tts-1-hd | Text-to-Speech HD качество | audio |
| whisper-1 | Speech-to-Text (Whisper) | audio |
| text-embedding-3-large | Embeddings 3072-dim | embedding |
| text-embedding-3-small | Embeddings 1536-dim (экономичная) | embedding |
Anthropic — Claude
| Model ID | Описание | Тип |
|---|---|---|
| claude-opus-4-6 | Самая мощная модель Claude Opus 4.6 | chat |
| claude-sonnet-4-6 | Claude Sonnet 4.6 — баланс качества и скорости | chat |
| claude-sonnet-4-20250514 | Claude Sonnet 4 (20250514) | chat |
| claude-haiku-4-5 | Быстрая и экономичная Claude Haiku 4.5 | chat |
| claude-haiku-4-5-20251001 | Claude Haiku 4.5 (20251001) | chat |
| claude-3-5-sonnet-20241022 | Claude 3.5 Sonnet (legacy) | chat |
| claude-3-5-haiku-20241022 | Claude 3.5 Haiku (legacy) | chat |
Google — Gemini 3
| Model ID | Описание | Тип |
|---|---|---|
| gemini-3.1-pro | Флагманская Gemini 3.1 Pro | chat |
| gemini-3-flash | Быстрая Gemini 3 Flash | chat |
Google — Gemini 2
| Model ID | Описание | Тип |
|---|---|---|
| gemini-2.5-pro | Gemini 2.5 Pro | chat |
| gemini-2.5-flash | Быстрая Gemini 2.5 Flash | chat |
| gemini-2.0-flash | Gemini 2.0 Flash | chat |
| gemini-2.0-flash-lite | Сверхбыстрая Gemini 2.0 Flash Lite | chat |
Google — Images & Embeddings
| Model ID | Описание | Тип |
|---|---|---|
| nano-banana | Генерация изображений через Gemini | image |
| imagen-3 | Google Imagen 3 генерация изображений | image |
| text-embedding-004 | Google text-embedding-004 | embedding |
Коды ошибок
| HTTP | type | Описание |
|---|---|---|
| 400 | invalid_request | Неверный формат запроса или параметры |
| 401 | unauthorized | Неверный или отсутствующий API-ключ |
| 402 | insufficient_funds | Недостаточно средств на балансе |
| 404 | not_found | Ресурс не найден |
| 429 | rate_limit_exceeded | Превышен лимит запросов |
| 500 | internal_error | Внутренняя ошибка сервера |
| 502 | upstream_error | Ошибка upstream-провайдера |
{
"error": {
"message": "Insufficient balance",
"type": "insufficient_funds",
"code": "402"
}
}
Биллинг
Оплата производится по факту использования. Стоимость рассчитывается на основе количества обработанных токенов.
Как рассчитывается стоимость
Цены указаны в рублях за 1 миллион токенов и автоматически пересчитываются при изменении курса USD/RUB по данным ЦБ РФ. Актуальные цены всегда доступны на странице Цены.
Пополнение баланса
Пополнение доступно в Dashboard → Пополнение. Оплата банковской картой через TBank. Минимальная сумма — 100₽. Быстрые кнопки: 300₽, 500₽, 1000₽, 3000₽.
Уведомления о балансе
При снижении баланса ниже порогового значения вы получите email и push-уведомление. Включите push-уведомления в Dashboard для мгновенных оповещений.