Seo với file robots

Thực chất, file robots.txt là một tập tin văn bản

đơn giản (không chứa mã HTML) được đặt

trong thư mục gốc của web site

ví dụ *http://www.example.com/robots.txt.

Vậy, làm thế nào để tạo ra một file robots.txt?

Rất đơn giản, bạn có thể mở chương trình

Notepad hay bất cứ chương trình soạn thảo văn

bản nào, lưu file với tên robots.txt là xong. Các

dòng lệnh trong file này có cấu trúc như sau:

User-agent: googlebot

Disallow: /cgi-bin/

Trong đó User-agent: là đại diện của một search

engine, Googlebot là spider của Google. Trong

ví dụ này, chỉ các spider của Google là được

phép index web site. Disallow: là không cho

phép thực hiện điều gì đó. ở ví dụ trên là không

cho phép các spider index thư mục “cgi-bin”

trong web site.

robots.txt

Một ví dụ nữa:

User-agent: googlebot

Disallow: /support

Tất cả các trang nằm trong thư mục support, hay

support-desk sẽ không được index.

Nếu bạn muốn tất cả các search engine có thể

index web site của bạn, nhưng không được index

các trang trong thư mục “cgi-bin” thì sử dụng

lệnh sau:

User-agent: *

Disallow: /cgi-bin/

Những điều nên tránh:

+Không sử dụng các chú thích trong file

robots.txt, nó có thể làm cho các spider của

search engine bị lầm lẫn.

Ví dụ: ”Disallow: support # Don’t index the

support directory” might be misinterepreted as

“Disallow: support#Don’t index the support

directory”.

+ Không được để khoảng trắng ở đầu dòng

lệnh

 Không thay đổi trật tự của các dòng lệnh.

Ví dụ:

Disallow: /support

User-agent: *

 Không sử dụng quá một thư mục trong dòng

lệnh Disallow.

Ví dụ:

User-agent: *

Disallow: /support /cgi-bin/ /images/

Các search engine không hiểu định dạng trên.

bạn nên viết thế này:

User-agent: *

Disallow: /support

Disallow: /cgi-bin/

Disallow: /images/

Phải chắc chắn các mệnh đề, từ sử dụng

trong lệnh là đúng. Ví dụ, thư mục của bạn là

“cgi-bin” (viết thường, không viết hoa), nhưng

khí vào lệnh, bạn lại viết là “Cgi-Bin” thì các

spider sẽ “bó tay”.

 Không nên dùng lệnh Allow trong file

robots.txt, bởi vì trong web site của bạn chắc

chắn sẽ có một số trang hoặc một số thành phần

bạn không muốn bị người khác “nhòm ngó”. nếu

bạn sử dụng lệnh Allow, tất cả mọi ngóc ngách

trong web site của bạn sẽ bị index!