Robots.txt những điều cần biết

Một trong những điều quan trọng để web site của

bạn có thể đạt High ranking (thứ hạng cao) trong

các cỗ máy tìm kiếm là bạn phải xây dựng cho

mình một file Robots.txt.

Vậy file Robots.txt là gì? Khi một search engine tìm

đến (nguyên văn Crawler) Website nào đó, nó sẽ tìm

một file đặc biệt trước tiên, đó là file robots.txt. File

robots.txt cho search engine đó biết rằng, Website

này có thể index hoặc không (tùy theo lệnh được viết

trong file robots.txt).

Thực chất, file robots.txt là một tập tin văn bản đơn

giản (không chứa mã HTML) được đặt trong thư mục

gốc của web site, ví dụ

*http://www.example.com/robots.txt.

Vậy, làm thế nào để tạo ra một file robots.txt? Rất

đơn giản, bạn có thể mở chương trình Notepad hay

bất cứ chương trình soạn thảo văn bản nào, lưu file

với tên robots.txt là xong. Các dòng lệnh trong file

này có cấu trúc như sau:

User-agent: googlebot

Disallow: /cgi-bin/

Trong đó User-agent: là đại diện của một search

engine, Googlebot là spider của Google. Trong ví dụ

này, chỉ các spider của Google là được phép index

web site. Disallow: là không cho phép thực hiện điều

gì đó. ở ví dụ trên là không cho phép các spider index

thư mục "cgi-bin" trong web site.

Một ví dụ nữa:

User-agent: googlebot

Disallow: /support

Tất cả các trang nằm trong thư mục support, hay

support-desk sẽ không được index.

Nếu bạn muốn tất cả các search engine có thể index

web site của bạn, nhưng không được index các trang

trong thư mục "cgi-bin" thì sử dụng lệnh sau:

User-agent: *

Disallow: /cgi-bin/

Những điều nên tránh:

+ Không sử dụng các chú thích trong file robots.txt,

nó có thể làm cho các spider của search engine bị lầm

lẫn. Ví dụ:

"Disallow: support # Don't index the support

directory" might be misinterepreted as "Disallow:

support#Don't index the support directory".

+ Không được để khoảng trắng ở đầu dòng lệnh, ví

dụ:

User-agent: *

Disallow: /cgi-bin/

+Không thay đổi trật tự của các dòng lệnh. Ví dụ:

Disallow: /support

User-agent: *

+ Không sử dụng quá một thư mục trong dòng lệnh

Disallow. Ví dụ:

User-agent: *

Disallow: /support /cgi-bin/ /images/

các search engine không hiểu định dạng trên. bạn nên

viết thế này:

User-agent: *

Disallow: /support

Disallow: /cgi-bin/

Disallow: /images/

+Phải chắc chắn các mệnh đề, từ sử dụng trong lệnh

là đúng. Ví dụ, thư mục của bạn là "cgi-bin" (viết

thường, không viết hoa), nhưng khí vào lệnh, bạn lại

viết là "Cgi-Bin" thì các spider sẽ "bó tay".

+ Không nên dùng lệnh Allow trong file robots.txt,

bởi vì trong web site của bạn chắc chắn sẽ có một số

trang hoặc một số thành phần bạn không muốn bị

người khác "nhòm ngó". nếu bạn sử dụng lệnh

Allow, tất cả mọi ngóc ngách trong web site của bạn

sẽ bị index!