Этот проект представляет собой прокси-сервер для OpenAI API, реализованный с использованием Flask и Redis для ограничения скорости запросов.
- Docker
- Docker Compose
- OpenAI Python Client
-
Установите Docker и Docker Compose на вашей машине, если они ещё не установлены. Смотрите официальные инструкции по установке.
-
Клонируйте репозиторий на вашу машину.
git clone <ссылка на репозиторий>
-
Создайте файл
.env
в корне проекта. В этом файле необходимо указать два ключа API: ключ для доступа к прокси-серверу (API_KEY
) и ваш ключ для доступа к OpenAI (OPEN_AI_API_KEY
).Пример файла
.env
:OPEN_AI_API_KEY=<ваш ключ API от OpenAI> API_KEY=<ключ API для доступа к прокси-серверу>
- Запустите Docker Compose.
Docker Compose автоматически соберет и запустит контейнеры Flask и Redis. Сервер начнет прослушивание на порту 8080.
docker-compose up -d
После запуска сервера вы можете использовать OpenAI Python Client для взаимодействия с прокси-сервером. Вместо обычного URL OpenAI API, используйте базовый URL вашего прокси-сервера. В качестве ключа API используйте ключ для доступа к прокси-серверу.
openai.api_base = "http://192.168.0.1:8080/api"
openai.api_key = "wcwcmoeineo"
Этот проект распространяется под лицензией MIT. Подробности можно узнать в файле LICENSE
.
Если у вас возникли сложности или вопросы по использованию пакета, создайте обсуждение в этом репозитории или напишите на электронную почту <ваша_почта>.
Мы приветствуем ваши замечания и предложения! Если вы хотите улучшить код или документацию, создайте новую ветку и отправьте pull request.