Skip to content

bloisejuli/hardware-pricing

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

32 Commits
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Hardware Pricing

Instalación

Requisitos previos

Asegúrate de tener instalado Python3 en tu sistema y MySQL para manejar la base de datos.

Creación de entorno virtual

Se recomienda crear un entorno virtual para trabajar con Python. Puedes hacerlo de la siguiente manera:

  1. Crea el entorno virtual: python3 -m venv nombre-del-entorno

  2. Activa el entorno virtual: source nombre-del-entorno/bin/activate

  3. Para desactivar el entorno virtual cuando hayas terminado: deactivate

Instalación de dependencias

Para instalar todas las bibliotecas que utilizamos, ejecuta el siguiente comando: pip install -r requirements.txt

Uso

Los datos se almacenan en una base de datos en la tabla "products", pero tambien creamos un csv de cada pagina. Escrapeamos dos paginas y para ambas nos encargamos de traer los datos para las categorias:

  • notebooks
  • memorias-ram
  • placas-de-video
  • monitores
  • outlet

De la categoria de notebooks traemos las caracteristicas más importantes para poder realizar una comparación, ya que el nombre de los productos varia de pagina a pagina.

Directorios y archivos

  • run.py: Se encarga de ejecutar los scrapers para obtener la información.
  • my_dash.py: Se encarga de la visualización de los datos.
  • scrapers/scraper_mexx.py: Se encarga de obtener los datos de la pagina https://www.mexx.com.ar/
  • scrapers/scraper_notebooks_mexx.py: Se encarga de obtener las caracteristicas de las notebooks de mexx.
  • scrapers/scraper_venex.py: Se encarga de obtener los datos de la pagina https://www.venex.com.ar/
  • scrapers/scraper_notebooks_venex.py: Se encarga de obtener las caracteristicas de las notebooks de venex.
  • scrapers/database_connector/my_sql_connector.py: Se encarga de la crear la conexion con la base de datos, aquí se debe completar con la información de quien corra el programa.
  • scrapers/utils/web_utils.py: Contiene las funciones que utilizamos para facilitar la obtención, el procesamiento y la extracción de información de páginas web.

Ejecutar

  1. Ejecutar el archivo run.py que se encarga de ejecutar los scraper para obtener la información.
  2. Ejecutar el archivo my_dash.py para poder visualizar los datos.

⚠️ Advertencia: El programa run.py puede tardar hasta 10 minutos en ejecutarse

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages