K-BEL / Test_DE

Web and Twitter Scraping Using Selenium with Python + Store JSON to RavenDB + A simple RavenDB REST API

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

Mon Projet d'Extraction de Données avec Selenium

Ce projet utilise Selenium, une bibliothèque Python, pour extraire des données à partir de sites web. Pour que Selenium fonctionne correctement, vous devez vous assurer d'avoir Chromium (le navigateur open-source) installé sur votre système.

Installation de Chromium

  1. Assurez-vous que Python est installé sur votre système.

  2. Installez Chromium en suivant les étapes appropriées pour votre système d'exploitation :

    • Linux (Ubuntu) :

      sudo apt-get update
      sudo apt-get install chromium-browser
      
    • Windows : Vous pouvez télécharger Chromium à partir du site officiel : https://download-chromium.appspot.com/

    • macOS :

      brew install --cask chromium
      

Installation des Bibliothèques Requises

Avant de commencer, assurez-vous d'avoir pip installé.

  1. Clonez ce dépôt sur votre machine :

  2. Installez les bibliothèques nécessaires à l'aide du fichier requirements.txt :

Exécution du Projet

Maintenant que vous avez installé toutes les dépendances, vous pouvez exécuter le projet en lançant le script principal :

Assurez-vous d'avoir Chromium installé sur votre système pour que le projet puisse fonctionner correctement.


About

Web and Twitter Scraping Using Selenium with Python + Store JSON to RavenDB + A simple RavenDB REST API


Languages

Language:Jupyter Notebook 95.2%Language:Python 4.8%