- vừa được xem lúc

Cào dữ liệu bài báo VNExpress bằng Python

0 0 462

Người đăng: Lê Minh Tú

Theo Viblo Asia

Để thực hiện các bài toán xử lý ngôn ngữ tự nhiên cho tiếng Việt như phân loại bài báo, huấn luyện word embedding, mô hình ngôn ngữ, ... trước tiên cần phải có bộ ngữ liệu tiếng Việt. Việc này thường được thực hiện tự động vì sẽ tốn nhiều thời gian nếu bạn cào dữ liệu thủ công nhất là khi dữ liệu để huấn luyện mô hình học sâu thường rất lớn. Khi đó chúng ta cần những công cụ thu thập dữ liệu tự động.

Trong bài viết này, mình muốn chia sẻ các bạn chương trình cào dữ liệu trang báo Tiếng Việt hàng đầu VNExpress được viết bằng ngôn ngữ Python.

Unsplash image

Nguồn: Unsplash

Bài viết này gồm 4 phần:

  • Giới thiệu về ứng dụng
  • Hướng dẫn sử dụng
  • Một số lưu ý
  • Lời kết

Toàn bộ mã nguồn bạn có thể xem ở repo sau: https://github.com/egliette/VNExpressCrawler

1. Giới thiệu

Chương trình của mình sử dụng thư viện web scrapping rất phổ biến BeautifulSoup lấy dữ liệu văn bản của trang web bằng URL. Với mỗi bài báo, mình sẽ lần lượt cào 3 phần văn bản là tiêu đề, mô tả và nội dung như minh họa sau: VNExpress contents

Các đoạn văn bản cần cào

Tại đây mình hỗ trợ hai cách cào dữ liệu:

  • Cào dựa trên các URL cho trước: bạn liệt kê url các bài báo vào một file txt sau đó gọi đường dẫn file (mặc định là urls.txt) khi chạy chương trình theo hướng dẫn. URLs crawling example

    File trên: danh sách đường dẫn cần cào, File dưới: nội dung cào được từ đường dẫn đầu tiên

  • Cào dựa trên thể loại bài báo: thay vì liệt kê cụ thể, bạn có thể nhập thể loại của các bài báo cần thu thập để chương trình tự động tìm các URL liên quan và lấy dữ liệu như cách trên. Hiện tại mình hỗ trợ cào 11 thể loại bài báo sau:

thoi-su
du-lich
the-gioi
kinh-doanh
khoa-hoc
giai-tri
the-thao
phap-luat
giao-duc
suc-khoe
doi-song

2. Hướng dẫn sử dụng

2.1. Cài đặt

Đầu tiên bạn cần clone repo của mình:

git clone https://github.com/egliette/VNExpressCrawler.git

Sau đó vào thư mục vừa clone, cài đặt và khởi động môi trường ảo để tải các package cần thiết. Lưu ý phiên bản Python mình dùng để cài đặt là 3.10.7.

python -m venv venv
venv\Scripts\activate
pip install -r requirements.txt

Đến bước này, bạn có thể cào dữ liệu theo hai cách mình vừa giới thiệu trên.

2.2. Sử dụng URL cho trước

Đầu tiên bạn điền vào file txt các URL bài báo cần thu thập dữ liệu sao cho mỗi dòng một URL. Sau đó chạy lệnh:

python urls_crawler.py --input [URLS_FPATH] --output [OUTPUT_DPATH]

Với

  • [URLS_FPATH]: là đường dẫn tới file txt chứa URL của bạn (mặc định là url.txt).
  • [OUTPUT_DPATH]: đường dẫn tới folder chứa các file txt chứa nội dung của các bài báo thu thập thành công (mặc định là data).

Kết quả thu được giống như ví dụ mình vừa mô tả ở trên.

2.3. Sử dụng thể loại bài báo

Chương trình hỗ trợ cào một thể loại trong một lần hoặc tất cả các thể loại trong một lần. Vì trước tiên cần phải lấy được các đường dẫn của các bài báo thuộc danh mục cần thu thập, chương trình cần phải duyệt từng trang thuộc danh mục đó để tìm URL các bài báo sau đó mới thực hiện cào nội dung. Tại thời điểm mình viết bài, VNExpress cung cấp tối đa 20 trang cho mỗi danh mục, nếu bạn tìm quá số trang thì sẽ được đưa đến trang tìm kiếm.

VNExpress page number

Một danh mục báo bao gồm nhiều trang

Do đó bạn cần cung cấp thể loại cần thu thập và số lượng trang cần cào để thực hiện thao tác này.

Một loại trong một lần Bạn chạy dòng lệnh sau:

python types_crawler.py --type [ARTICLE_TYPE] --pages [TOTAL_PAGES] --output [OUTPUT_DPATH] 

Với:

  • [ARTICLE_TYPE]: là tên danh mục bài báo cần cào thuộc 11 loại mình liệt kê ở trên (mặc định là du-lich).
  • [TOTAL_PAGES]: số lượng trang thuộc danh mục cần thu thập (mặc định là 1).
  • [OUTPUT_DPATH]: đường dẫn đến folder chứa kết quả (mặc định là data).

Sau khi chạy xong, trong thư mục [OUTPUT_DPATH] sẽ sinh hai thư mục con:

  • urls: chứa file txt chứa các URL thu thập thành công.
  • results: chứa folder tên tương ứng với thể loại bạn vừa nhập. Bên trong folder đó là danh sách các file txt chứa nội dung của các bài báo được cào thành công.

Tất cả thể loại trong một lần Khi đó bạn không cần cung cấp tên thể loại mà chỉ cần gọi flag --all

python types_crawler.py --all --pages [TOTAL_PAGES] --output [OUTPUT_DPATH]

Các giá trị còn lại thì ý nghĩa tương tự như cào một loại. Tương tự với kết quả ngoại trừ trong hai thư mục con gồm tất cả các loại. Quá trình này khá lâu nên bạn có thể treo máy và đi pha một ly cà phê ☕.

3. Một số lưu ý

Không phải lúc nào việc cào cũng thành công, vì mình lấy thông tin dựa trên class và tag html nên nếu trang cần cào không chứa các class hoặc tag mà mình đã cài đặt cứng từ trước thì sẽ không thu thập được hoặc chỉ một phần nhỏ. Ví dụ như một số bài báo dưới dạng video sẽ có class hoặc tag khác đối với các phần chủ đề, mô tả và nội dung VNExpress video

Bài báo dạng video

Mình cũng có ghi lại danh sách các URL cào không thành công dưới dạng kết quả trả về của các hàm thu thập. Nếu bạn nào có nhu cầu xem các URL lỗi thì có thể sử dụng hoặc thay đổi mã nguồn.

Và ngoài ra còn có format của URL số trang theo danh mục mình cũng nhập cứng theo công thức

https://vnexpress.net/[TYPE]-p[PAGE_NUMBER]

Với [TYPE] là danh mục và [PAGE_NUMBER] là số trang. Ví dụ như:

https://vnexpress.net/the-gioi-p2

Nên trong tương lai, nếu VNExpress có thay đổi các thành phần trên thì có thể chương trình không hoạt động. Lúc đó mong các bạn vui lòng thông báo cho mình trong mục Issues của repo để mình có thể cập nhật nhanh chóng.

4. Lời kết

Để tiết kiệm thời gian chạy chương trình hoặc phòng trường hợp mình vừa nêu trên, mình đã cào tất cả các thể loại trên với mỗi thể loại 20 trang mà bạn có thể tải tại link drive này.

Mong chương trình của mình hữu ích cho các bạn.

Bình luận

Bài viết tương tự

- vừa được xem lúc

Thao tác với File trong Python

Python cung cấp các chức năng cơ bản và phương thức cần thiết để thao tác các file. Bài viết này tôi xin giới thiệu những thao tác cơ bản nhất với file trong Python.

0 0 63

- vừa được xem lúc

Tập tành crawl dữ liệu với Scrapy Framework

Lời mở đầu. Chào mọi người, mấy hôm nay mình có tìm hiểu được 1 chút về Scrapy nên muốn viết vài dòng để xem mình đã học được những gì và làm 1 demo nho nhỏ.

0 0 166

- vừa được xem lúc

Sử dụng Misoca API (oauth2) với Python

Với bài viết này giúp chúng ta có thể nắm được. ・Tìm hiểu cách xử lý API misoca bằng Python.

0 0 49

- vừa được xem lúc

[Series Pandas DataFrame] Phân tích dữ liệu cùng Pandas (Phần 3)

Tiếp tục phần 2 của series Pandas DataFrame nào. Let's go!!. Ở phần trước, các bạn đã biết được cách lấy dữ liệu một row hoặc column trong Pandas DataFame rồi phải không nào. 6 Hoc.

0 0 63

- vừa được xem lúc

Lập trình socket bằng Python

Socket là gì. Một chức năng khác của socket là giúp các tầng TCP hoặc TCP Layer định danh ứng dụng mà dữ liệu sẽ được gửi tới thông qua sự ràng buộc với một cổng port (thể hiện là một con số cụ thể), từ đó tiến hành kết nối giữa client và server.

0 0 79

- vừa được xem lúc

[Series Pandas DataFrame] Phân tích dữ liệu cùng Pandas (Phần 2)

Nào, chúng ta cùng đến với phần 2 của series Pandas DataFrame. Truy xuất Labels và Data. Bạn đã biết cách khởi tạo 1 DataFrame của mình, và giờ bạn có thể truy xuất thông tin từ đó. Với Pandas, bạn có thể thực hiện các thao tác sau:.

0 0 95