Hướng Dẫn Lập Trình Crawl (Thu Thập) Dữ Liệu Web với Python
Web crawling, còn được gọi là web scraping, là quá trình tự động thu thập dữ liệu từ các trang web khác nhau. Nó bao gồm việc trích xuất thông tin từ các trang web bằng cách theo dõi các liên kết và phân tích cấu trúc HTML hoặc XML bên dưới.
Dữ liệu được crawl về thể được sử dụng cho nhiều mục đích, bao gồm nghiên cứu, phân tích để xây dựng các mô hình máy học (Machine Learning) cũng như tạo những ứng dụng dựa trên thông tin mới nhất từ web.
Trong video này, chúng mình sẽ tìm hiểu về Web Crawling với thư viện Requests và BeautifulSoup của Python để thu thập dữ liệu từ trang web.
[0:00] Giới thiệu về nội dung của video
[1:40] Hướng dẫn thiết lập môi trường ảo (virtual environment) và cài đặt thư viện
[6:00] Hướng Dẫn Lập Trình Crawl (Thu Thập) Dữ Liệu Web với Python
Tài liệu liên quan tới video:
- F1 Racing: [ Ссылка ]
- Jupyter Notebook: [ Ссылка ]
Theo dõi CodeXplore tại:
► Facebook fanpage: [ Ссылка ]
► Tiktok: [ Ссылка ]
► Github: [ Ссылка ]
► Instagram: [ Ссылка ]
Link để tham gia Discord Community: [ Ссылка ]
#python #webcrawler #beautifulsoup
Ещё видео!