* Django-3.2.2
* DRF
* Bootstrap
* Html
* CSS
* JS
* Selenium
* Celery / Redis
* Sqlite3
- webapp - тут реализована логика для извлечения данных с сайта и модели для работы с базой:
- api-v1 - api для возвращения JSON данных.
Получение данных для конкретной компании (в данных json всех компаний есть url на получене данных отдельной компании):
- http://localhost:8000/api-v1/company/(id компании)
- Cклонировать проект с GitHub:
-
- $ git clone https://github.com/Illarionov81/Scraping.git
- Cоздайте виртуальное окружение:
$ cd Scraping/
Scraping$ python3 -m venv venv
- Активируйте его:
Scraping$ . venv/bin/activate
- Устанавите окружение:
(venv)Scraping$ pip install -r requirements.txt
- Проведите Мигрирацию БД:
Scraping$ cd source/
(venv)Scraping/source$ python manage.py migrate
- Для работы Selenium установить драйвер. Ссылки на драйвера для браузеров есть в документации по установке Selenium: https://selenium-python.readthedocs.io/installation.html. В корневом каталоге пакета проекта - sourse, содержится драйвер для версии браузера chrome 90.0.4430.
- Для запуска redis можно использовать docer:
docker run -p 6379:6379 --name some-redis -d redis
- Для запуска celery - В терминале, с активным экземпляром виртуальной среды Python, установленным ранее, в корневом каталоге пакета проекта (тот же, что содержит модуль manage.py), запустить программу celery:
celery -A main worker --loglevel=info
- Запустить сервер:
./manage.py runserver