Bài đăng nổi bật

Ford Biên Hòa Đồng Nai - Đại lý mua bán xe giá tốt nhất

Xuất hiện tại Biên Hòa Đồng Nai từ năm 2007 tới nay, hãng xe Ôtô nổi tiếng tới từ Mỹ –  Ford Motor  đã khẳng định được một chỗ đứng trong l...

Chủ Nhật, 4 tháng 9, 2016

Hướng dẫn tạo và sử dụng file robots.txt cho website

Tại sao cần phải tạo file robots.txt ?
- Khi các robot của bộ máy tìm kiếm ghé thăm một website nào đó thì nó sẽ ghẽ thăm file robots.txt đâu tiên vì đây chính là bảng chỉ dẫn cho các robot tìm kiếm thông tin

File robots.txt là gì? Công dụng của file robots.txt?
- File robots.txt là một dạng file text có đươi .txt chứa các câu lệnh để hướng dẫn cho các robot tìm kiếm của google nên đọc những file nào và index file nào khi vào website.
- File robots.txt là một tập tin văn bản đơn giản (không chứa các mã HTML) được đặt trong thư mục gốc của website (ngang cấp với file index.*(index.htm, index.php, default.aspx,….)

Ví dụ: http://www.2-tek.net/robots.txt

Hướng dẫn tạo file robots.txt
- để tạo tập tin robots.txt bạn mở chương trình Notepad và gõ các lệnh, sau đó lưu lại với tên robots.txt và chép vào thư mục gốc của website.


Các lênh cơ bản như sau
User-agent: *
Allow: /duocdocfilenay/
Disallow: /khongdocfilenay/
User-agent: dùng để xác định bot của công cụ tìm kiếm.
Allow: Cho phép bot vào thư mục nào đó.
Disallow: Không cho bot đọc file nào đó.

- Ở ví dụ trên hướng dẫn cho phép bot đọc file duocdocfilenay, và không cho phép bot đọc file khongdocfilenay.

Một số ứng dụng của file robots.txt:

1. Chặn không cho bot google vào web
User-agent: *
Disallow: /

- Với những câu lệnh trên trì không có công cụ tìm kiếm nào lập chỉ mục (index) bất kỳ trang nào trong website của ban, nghĩa là các bài viết hay sản phẩm trong website của bạn sẽ không xuất hiện trong kết quả tìm kiếm của google

2. Không cho bot đọc một thư mục hay một trang nào đó
User-agent: *
Disallow: /khongxem.html/
Disallow: /test.html/

- Với những câu lệnh ở trên có nghĩa là cho phép bot đọc tất cả các file trong web trừ 2 file khongxem.html và test.html

3. Chặn một bot nào đó
User-agent: Spambot
Disallow: /
User-agent: *
Disallow: /wp-includes/

- Spambot bị cấm truy cập tất cả các thư mục web còn các web khác được truy cập tất cả các thư mục trừ file wp-includes

4. Chỉ cho phép bot đọc một thư mục hoặc một trang nào đó
User-agent: *
Allow: /bai-viet/
Allow: /demo.html
Disallow: /wp-includes/

- Cho phép tất cả các bot truy cập vào thư mục bai-viet và trang demo.html nhưng không được đọc thư mục wp-includes
cach tạo file robot txt

5. Chặn bot vào nhiều bài có cấu trúc đường dẫn giống nhau
- VD: Chúng ta có hai đường dẫn như sau http://www.2-tek.net/geolat10=1235345 http://www.2-tek.net/geolat12=1345
- Chúng ta muốn chặn bot truy cập vào tất cả các đường dẫn dạng này thì làm thế nào? Các bạn nhìn kỹ sẽ thấy trong 2 URL trên có phần chung là /geolat là cấu trúc giống nhau của 2 hoặc nhiều URL. Chúng ta sẽ chăn bot bằng lệnh sau
Disallow: /geolat*
Nguồn: 2-Tek.Net

0 nhận xét

Đăng nhận xét