API Документация

LumeAI предоставляет OpenAI-совместимый API для доступа к различным AI моделям. Просто замените base_url на наш и используйте любимые библиотеки.

Быстрый старт

1

Получите API ключ

Зарегистрируйтесь на LumeAI и создайте API ключ в личном кабинете.

2

Установите библиотеку

Используйте официальную OpenAI библиотеку для вашего языка.

pip install openainpm install openai
3

Сделайте запрос

Укажите base_url = https://lumeai.ru/v1 и ваш API ключ.

import openai

# Используйте ваш API ключ LumeAI
client = openai.OpenAI(
    api_key="lm-xxxxxxxxxxxxxxxxxxxxxxxx",
    base_url="https://lumeai.ru/v1"
)

response = client.chat.completions.create(
    model="gpt-4o",
    messages=[
        {"role": "system", "content": "Ты полезный ассистент."},
        {"role": "user", "content": "Привет! Как дела?"}
    ],
    temperature=0.7,
    max_tokens=1000
)

print(response.choices[0].message.content)

Аутентификация

Все запросы к API должны включать заголовок Authorization с вашим API ключом:

Authorization: Bearer lm-xxxxxxxxxxxxxxxxxxxxxxxx

Важно

Никогда не передавайте ваш API ключ в клиентском коде или публичных репозиториях. Используйте переменные окружения для хранения ключей.

Chat Completions

Endpoint

POST https://lumeai.ru/v1/chat/completions

Параметры запроса

ПараметрТипОбязательныйОписание
modelstringДаID модели (например, gpt-4o)
messagesarrayДаМассив сообщений диалога
temperaturenumberНет0-2, по умолчанию 1
max_tokensintegerНетМаксимум токенов в ответе
streambooleanНетПотоковая передача (SSE)
top_pnumberНет0-1, nucleus sampling

Формат сообщений

Каждое сообщение содержит role и content:

{
  "messages": [
    {"role": "system", "content": "Системный промпт"},
    {"role": "user", "content": "Сообщение пользователя"},
    {"role": "assistant", "content": "Ответ ассистента"}
  ]
}

Потоковая передача

Для получения ответа по частям в реальном времени, установите stream: true. Ответ будет передаваться через Server-Sent Events (SSE).

Python Streaming
import openai

client = openai.OpenAI(
    api_key="lm-xxxxxxxxxxxxxxxxxxxxxxxx",
    base_url="https://lumeai.ru/v1"
)

# Включаем потоковую передачу
stream = client.chat.completions.create(
    model="gpt-4o",
    messages=[
        {"role": "user", "content": "Напиши короткую историю"}
    ],
    stream=True
)

# Выводим токены по мере генерации
for chunk in stream:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="")

Доступные модели

LumeAI поддерживает следующие модели. Каждая имеет свой множитель расхода токенов.

GPT-4

gpt-4
1.5x

GPT-4o

gpt-4o
1.3x

GPT-4o Mini

gpt-4o-mini
0.8x

GPT-3.5 Turbo

gpt-3.5-turbo
0.5x

Claude Sonnet 4.5

claude-sonnet-4.5
2.0x

Claude 3.5 Sonnet

claude-3.5-sonnet
1.6x

Gemini 2.5 Flash

gemini-2.5-flash
0.6x

DeepSeek V3

deepseek-v3
0.8x
Все модели

Лимиты

Токены

  • 10,000,000 токенов в неделю (базовый лимит)
  • Лимит считается на аккаунт, не на API ключ
  • Сброс каждую неделю (воскресенье 00:00 UTC)
  • Разные модели потребляют токены с разным множителем

Увеличение лимита

Для увеличения лимита токенов свяжитесь с нами:

Telegram: @go_minetik

Rate Limits

  • Максимум 60 запросов в минуту
  • Максимум 10 одновременных запросов

Коды ошибок

КодСтатусОписание
401UnauthorizedНеверный или отсутствующий API ключ
403ForbiddenАккаунт заблокирован или заморожен
429Too Many RequestsПревышен rate limit или лимит токенов
500Internal ErrorВнутренняя ошибка сервера
503Service UnavailableМодель временно недоступна