LumeAI предоставляет OpenAI-совместимый API для доступа к различным AI моделям. Просто замените base_url на наш и используйте любимые библиотеки.
Зарегистрируйтесь на LumeAI и создайте API ключ в личном кабинете.
Используйте официальную OpenAI библиотеку для вашего языка.
pip install openainpm install openaiУкажите base_url = https://lumeai.ru/v1 и ваш API ключ.
import openai
# Используйте ваш API ключ LumeAI
client = openai.OpenAI(
api_key="lm-xxxxxxxxxxxxxxxxxxxxxxxx",
base_url="https://lumeai.ru/v1"
)
response = client.chat.completions.create(
model="gpt-4o",
messages=[
{"role": "system", "content": "Ты полезный ассистент."},
{"role": "user", "content": "Привет! Как дела?"}
],
temperature=0.7,
max_tokens=1000
)
print(response.choices[0].message.content)Все запросы к API должны включать заголовок Authorization с вашим API ключом:
Authorization: Bearer lm-xxxxxxxxxxxxxxxxxxxxxxxxВажно
Никогда не передавайте ваш API ключ в клиентском коде или публичных репозиториях. Используйте переменные окружения для хранения ключей.
POST https://lumeai.ru/v1/chat/completions| Параметр | Тип | Обязательный | Описание |
|---|---|---|---|
model | string | Да | ID модели (например, gpt-4o) |
messages | array | Да | Массив сообщений диалога |
temperature | number | Нет | 0-2, по умолчанию 1 |
max_tokens | integer | Нет | Максимум токенов в ответе |
stream | boolean | Нет | Потоковая передача (SSE) |
top_p | number | Нет | 0-1, nucleus sampling |
Каждое сообщение содержит role и content:
{
"messages": [
{"role": "system", "content": "Системный промпт"},
{"role": "user", "content": "Сообщение пользователя"},
{"role": "assistant", "content": "Ответ ассистента"}
]
}Для получения ответа по частям в реальном времени, установите stream: true. Ответ будет передаваться через Server-Sent Events (SSE).
import openai
client = openai.OpenAI(
api_key="lm-xxxxxxxxxxxxxxxxxxxxxxxx",
base_url="https://lumeai.ru/v1"
)
# Включаем потоковую передачу
stream = client.chat.completions.create(
model="gpt-4o",
messages=[
{"role": "user", "content": "Напиши короткую историю"}
],
stream=True
)
# Выводим токены по мере генерации
for chunk in stream:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="")LumeAI поддерживает следующие модели. Каждая имеет свой множитель расхода токенов.
GPT-4
gpt-4GPT-4o
gpt-4oGPT-4o Mini
gpt-4o-miniGPT-3.5 Turbo
gpt-3.5-turboClaude Sonnet 4.5
claude-sonnet-4.5Claude 3.5 Sonnet
claude-3.5-sonnetGemini 2.5 Flash
gemini-2.5-flashDeepSeek V3
deepseek-v3| Код | Статус | Описание |
|---|---|---|
401 | Unauthorized | Неверный или отсутствующий API ключ |
403 | Forbidden | Аккаунт заблокирован или заморожен |
429 | Too Many Requests | Превышен rate limit или лимит токенов |
500 | Internal Error | Внутренняя ошибка сервера |
503 | Service Unavailable | Модель временно недоступна |