Развертывание LLM-модели с авторизованным доступом через API Gateway

Цена договорная
21 апреля 2024, 07:12 • 11 откликов • 54 просмотра
DevOps-инженеру нужно развернуть сервер для запуска LLM-модели
(например, Llama 3 или Mistral) и предоставить доступ к этой модели
через API Gateway с авторизацией по токену. Задача включает в себя
установку необходимых библиотек, создание RESTful API с использованием
FastAPI, настройку JWT-аутентификации и настройку маршрутизации запросов
через API Gateway. Требуется обеспечить безопасность, тестирование, и
мониторинг всей системы.

Этапы задачи:
  1. Развернуть сервер:
    • Выберите инфраструктуру (облачный сервер, виртуальная машина и т. д.) и разверните там сервер с установленным Python.
  2. Установить LLM-модель:
    • Установите необходимые библиотеки (transformers, torch).
    • Загрузите и инициализируйте LLM-модель, такую как Llama 3 или Mistral.
  3. Создать API Endpoint:
    • Используйте FastAPI для создания RESTful API, принимающего запросы и возвращающего ответы от модели.
  4. Настроить авторизацию по токену:
    • Реализуйте JWT-авторизацию для обеспечения безопасности доступа к API.
  5. Настроить API Gateway:
    • Если используете облачную инфраструктуру, настройте API Gateway для маршрутизации запросов к вашему FastAPI-серверу.
    • Убедитесь в безопасности и работоспособности всей цепочки: сервер -> API -> модель -> авторизация.
  6. Тестирование и мониторинг:
    • Проведите тестирование, чтобы убедиться в корректной работе API и модели.
    • Настройте мониторинг для отслеживания производительности и безопасности.
Ищем непосредственного исполнителя, не агентство!
Скамеры проходим мимо, не тратьте время!