Skip to content

Vector Store

Создайте надежную основу для ваших RAG-приложений. Быстро, безопасно и полностью совместимо с экосистемой OpenAI.

Как работает векторизвация

Платформа exlnt.ai устанавливается в ваш контур и выступает в роли единого шлюза для всех LLM-сервисов. Это позволяет применять сквозные политики безопасности, контролировать расходы и упрощать разработку AI-приложений.

Схема архитектуры платформы exlnt.ai

Как работает поиск

Платформа exlnt.ai устанавливается в ваш контур и выступает в роли единого шлюза для всех LLM-сервисов. Это позволяет применять сквозные политики безопасности, контролировать расходы и упрощать разработку AI-приложений.

Схема архитектуры платформы exlnt.ai

Быстрый старт с API

Наша платформа полностью совместима с OpenAI Assistants API. Если вы уже используете их инструменты, вам достаточно изменить только базовый URL для API-клиента, чтобы начать работать с нами.

python
# Укажите адрес нашего шлюза в параметре base_url
# from openai import OpenAI
# client = OpenAI(base_url="https://your-exlnt-gateway.com/v1")

from openai import OpenAI

# Для примера используется стандартный клиент OpenAI
client = OpenAI()

# Создаем векторное хранилище для ваших документов
vector_store = client.beta.vector_stores.create(
    name="Справочник сотрудника"
)

print(f"ID векторного хранилища: {vector_store.id}")
python
# Укажите пути к вашим файлам
file_paths = ["employee_handbook.pdf"]
file_streams = [open(path, "rb") for path in file_paths]

# Загружаем файлы в созданное хранилище
file_batch = client.beta.vector_stores.file_batches.upload_and_poll(
    vector_store_id=vector_store.id,
    files=file_streams
)

# Важно закрыть файловые потоки после загрузки
for fs in file_streams:
    fs.close()

print(f"Статус загрузки: {file_batch.status}")
print(f"Количество файлов: {file_batch.file_counts}")
python
# Создаем Ассистента, который будет использовать наше хранилище
assistant = client.beta.assistants.create(
  name="Помощник по справочнику",
  model="gpt-4o",
  tools=[{"type": "file_search"}],
  tool_resources={"file_search": {"vector_store_ids": [vector_store.id]}},
)

# Создаем диалог (thread) и добавляем сообщение от пользователя
thread = client.beta.threads.create(
    messages=[{
        "role": "user",
        "content": "Какие в компании правила насчет удаленной работы?"
    }]
)

# Запускаем ассистента для обработки диалога
run = client.beta.threads.runs.create_and_poll(
    thread_id=thread.id,
    assistant_id=assistant.id
)

# Получаем и выводим ответ ассистента
if run.status == 'completed':
    messages = client.beta.threads.messages.list(thread_id=thread.id)
    # Ответ обычно является первым сообщением в списке
    response_content = messages.data[0].content[0].text.value
    print(response_content)
else:
    print(f"Статус выполнения: {run.status}")

Решения для ключевых задач бизнеса

Агенты основанные на базах знаний

Загрузите данные базы знаний в векторное хранилище и получите доступ к ним через агента, который будет строить свои ответы на основе загруженных данных.

🔬

Автоматизация и аналитика

Анализируйте большие объемы текстовых данных, отчетов и документов из архивов, автоматически извлекая нужную информацию и защищая коммерческую тайну.

🚀

Организуйте поиск по корпоративным данным

Вы сможете с легкостью реализовать семантический поиск данных в инструкциях, регламентах и даже в описаниях товаров на вашем сайте.

Готовы к безопасному внедрению LLM?

Узнайте, как платформа exlnt.ai может помочь вашей организации получить полный контроль над использованием больших языковых моделей.