WEB SCRAPING de tablas de páginas web con PYTHON 🐍 paso a paso | BeautifulSoup & Requests 🧑‍💻

แชร์
ฝัง
  • เผยแพร่เมื่อ 8 ก.พ. 2025
  • Amigosss, en este video les explico cómo hacer #WebScraping de tablas de páginas web con #Python 🐍 usando las librerías #BeautifulSoup & #Requests!
    Recursos relacionados
    ===========
    ➡️ Post mencionado: stackoverflow....
    😼 Repo: github.com/San...
    🧑‍💻 Más proyectos para tu portafolio: linktr.ee/sand...
    Cursos y libros de data recomendados
    ===========
    📚 Cursos: linktr.ee/sand...
    📖 Libros: amzn.to/3M8t5XP
    Plataformas de data recomendadas
    ===========
    🧑‍💻 DataCamp: datacamp.pxf.i...
    🧑‍💻 Coursera: imp.i384100.ne...
    🧑‍💻 Domestika: domestika.sjv....
    Más contenido de data
    ===========
    📲 Telegram: t.me/sandreke9...
    📸 Instagram: / sandreke99
    🤵‍♂️ LinkedIn: / sandroagama
    📽️ TikTok: / sandreke99
    😼 GitHub: github.com/san...
    Si te ha servido mi contenido, te invito a apoyarlo
    ==============
    🙌 Paypal: paypal.me/sand...
    ________________________________________________
    Keywords:
    web scraping python
    web scraping
    web scraping español
    web scraping python español
    web scraping python beautifulsoup español
    web scraping python curso
    beatifulsoup
    beautiful soup
    request
    requests
    beatifulsoup request
    raspado web python
    raspado
    tutorial gratis
    tutorial paso a paso

ความคิดเห็น • 15

  • @juanje2941
    @juanje2941 9 หลายเดือนก่อน +1

    Buenisimo video! Que pasa si es una tabla dinámica? Seria genial que hicieras un video de eso. Saludos!

    • @sandreke99
      @sandreke99  9 หลายเดือนก่อน

      Muchas gracias! Lo tendremos en cuenta, se viene video con Selenium 🙌

  • @andrespalanbuenano3402
    @andrespalanbuenano3402 ปีที่แล้ว

    excelente aporte, una consulta si el objeto table posee varias tablas con el mismo nombre, como podría escoger la segunda tabla ya que al realizar el código por default me toma la primera tabla.

    • @sandreke99
      @sandreke99  10 หลายเดือนก่อน

      Gracias, Andres! Se cambiaría de "soup.find" a "soup.find_all". Luego se utilizaría un atributo que identifique a la tabla que deseas extraer. Por ejemplo, en la página del tutorial hay varias tablas, pero inspeccionando se pueden diferenciar por el atributo 'id'. La que scrapeamos es "constituents"

  • @abogadosasesorias8848
    @abogadosasesorias8848 ปีที่แล้ว

    Muchas gracias hermano.

  • @fullmooninparis1
    @fullmooninparis1 10 หลายเดือนก่อน

    Hola, disculpa esto puede funcionar para descargar carpetas subcarpetas y archivos subidos en una página web?

    • @sandreke99
      @sandreke99  10 หลายเดือนก่อน

      Sí se podría, pero depende de la página. A veces una librería es mejor que otra para cada caso de uso

  • @estefaniachavez8578
    @estefaniachavez8578 10 หลายเดือนก่อน

    Hola, quería saber si podrías ayudarme a sacar datos de determinados activos financieros de Morningstar. No puedo conseguir la API. Antes de Agendarte quería saber si me podías asesorar en eso.

    • @sandreke99
      @sandreke99  10 หลายเดือนก่อน

      Hola, Estefania! Si es solo para obtener data, te recomendaría que revises la librería 'morningstar-data'. De la página Analytics Lab de Morningstar obtienes el token que necesitarás para extraer data directamente desde Python 👌

  • @thomas_Versace
    @thomas_Versace ปีที่แล้ว

    Muy buen aporte, intente reeplicarlo con un proyecto que hago pero no he tenido resultados favorables, tal ves sea por la falta de conocimientos en programación, no se si tengas la disponibilidad de estar interesado en ayudarme, te reconocería económicamente por tus conocimientos si se llega a obtener el resultado esperado, estoy al tanto de tu repuesta, saludos 👍

    • @sandreke99
      @sandreke99  ปีที่แล้ว

      Hola, Thomas! Claro, agéndame por agendalo.io/sandreke99 👨‍💻

  • @GonzaloEzequielRiveraLuna
    @GonzaloEzequielRiveraLuna ปีที่แล้ว +1

    Buenas, estaba adaptando el codigo para hacer scraping a Wikipedia, pero en este caso sobre los juegos olimpicos y al realizar el codigo me salia error en index y no pude seguir.
    asi que lo que realice es copiar y pegar tu codigo para guiarme y me sale un error en index tambien. Sabes que podria ser. yo estoy intentando con la url es.wikipedia.org/wiki/Anexo:Medallas_ol%C3%ADmpicas
    Error en tu codigo:
    line 30, in
    year_founded = row.findAll('td')[8].text
    IndexError: list index out of range

    • @sandreke99
      @sandreke99  ปีที่แล้ว +2

      Qué interesante proyecto! He visto que tiene varias tablas ese anexo, identifica cuál específicamente quieres scrapear. Por otro lado, te aparece "out of range" (o fuera de rango) para una columna de índice 8 (recuerda que en Python comienza en 0), así que lo que quiere decir es que no detecta esa columna 9. Fíjate qué columnas quieres scrapear usando los índices y el html👌