ROBOTS.TXT CHUẨN CHO BLOGGER/BLOGSPOT 2018

Robots.txt  là một tài liệu cho các con bọ (SE: Search Engine) đọc trang này (index) dữ liệu website ở trang nào, và không cho đọc trang nào...

Robots.txt là một tài liệu cho các con bọ (SE: Search Engine) đọc trang này (index) dữ liệu website ở trang nào, và không cho đọc trang nào lên các máy chủ tìm kiếm.

Các con bọ tìm kiếm đều phải tuân thủ nội dung trong Robots.txt trước khi lập chỉ mục các nội dung trong website.

Việc thiết lập Robots.txt chuẩn cho công cụ lập chỉ mục (index) nhanh chóng hoặc index các nội dung không muốn cho lập chỉ mục.
Robot.txt chuẩn cho Blogspot 2018
Robots.txt chuẩn cho Blogspot 2018

Robots.txt mà Toilaquantri.com đang dùng

Bạn thay link https://www.toilaquantri.com/ ở các code bên dưới nhé!
Hoặc tham khảo robots.txt mà toilaquantri đang dùng tại https://toilaquantri.com/robots.txt

User-agent: Mediapartners-Google
Disallow:
User-agent: *
Allow: /search
Disallow: /search*
Allow: /
Allow: *max-results=10
Allow: /search/label/
Disallow: *archive.html
Disallow: *?updated-max*
Disallow: *?m=0
Sitemap: https://www.toilaquantri.com/posts/default?orderby=UPDATED
Sitemap: https://www.toilaquantri.com/sitemap.xml
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=1&max-results=500

Giải thích cách hoạt động của Robot.txt

  • User-agent: Mediapartners-Google
  • Disallow: //Mình chặn index các trang đối tác của Google (Google Adsense)
  • User-agent: * //Khai báo cho tất cả bộ máy tìm kiếm (SE)
  • Allow: /        //Cho phép đọc trang domain.com/ (Khác với domain.com không có / phía sau .com)
  • Disallow: /search* //Chặn trang tìm kiếm
  • Allow: /search  //Cho phép đọc trang bài viết mới
  • Disallow: *archive.html //Chặn index trang lưu trữ
  • Disallow: *?m=0 // chặn index trang có giá trị domain.com?m=0
  • Allow: /search/label/   //Cho phép index trang nhãn
  • Allow: *max-results=10 //Cho phép Index trang nhãn có max-results=10 (vì mình muốn như thế)
Dành cho các site không index các trang *max-results=*
Disallow: *max-results=*  // Chặn index đuôi max-results=10, max-results=20, max-results=xxx. Thường dùng cho code phân trang.

Riêng đối với Blogger sử dụng cấp dữ liệu qua atom và mỗi lần cấp là tối đa 500 bài nên ta mới khai báo sitemap: như sau

Sitemap: https://www.toilaquantri.com/posts/default?orderby=UPDATED
Sitemap: https://www.toilaquantri.com/sitemap.xml
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=1&max-results=500
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=501&max-results=500
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=1001&max-results=500
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=1501&max-results=500
Sitemap: https://www.toilaquantri.com/p/map.html

Trong đó các link sau:

Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=1&max-results=500
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=501&max-results=500
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=1001&max-results=500
Sitemap: https://www.toilaquantri.com/atom.xml?redirect=false&start-index=1501&max-results=500

= Được khai báo trong Google Webmaster Tools

Sitemap: https://www.toilaquantri.com/p/map.html
Sitemap dành cho người dùng nhưng cũng khai báo link để Google (SE) vào đó đọc link cho nhanh.

Cách khai báo Robots.Txt

1. CHO PHÉP DÒ VÀ INDEX TOÀN BỘ TRANG VÀ CÁC THƯ MỤC, CÁC FILE

Allow: /

2. CHẶN KHÔNG CHO PHÉP TẤT CẢ BOT (SE) TRUY CẬP VÀ INDEX TOÀN BỘ

Disallow: /

3. CHẶN TOÀN BỘ MỘT THƯ MỤC VÀ CÁC FILE, THƯ MỤC CON TRONG NÓ

Disallow: /abc/

4. CHẶN MỘT TRANG CỐ ĐỊNH

Disallow: /abc.html

5. CHẶN MỘT LOẠI FILE CỐ ĐỊNH TỪ MỘT BOT CỦA CÔNG CỤ TÌM KIẾM

User-agent: Googlebot
Disallow: /*.doc$ (thay doc bằng jpg hoặc bất kì file nào muốn chặn)

6. CHẶN MỘT HÌNH KHÔNG CHO GOOGLEBOT-IMAGE INDEX

User-agent: Googlebot-Image
Disallow: /abc/def.jpg

7. CHẶN KHÔNG CHO MỘT BOT BẤT KÌ TRUY CẬP:

User-agent: Googlebot
Disallow: /

Lưu ý khi sử dụng và tạo file Robots.txt

  1. Phân biệt chữ hoa, chữ thường
  2. Không được viết thừa hoặc thiếu khoảng trắng
  3. Mỗi lệnh viết trên một dòng
  4. Không tự ý thêm các ký tự đặc biệt dễ gây nhầm lẫn cho bot
  5. Hết sức thận trọng khi sử dụng khi bạn chưa hiểu thường tận
  6. Kiểm tra thường xuyên file robots.txt

COMMENTS

Name

Android,2,blogspot,1,CT,2,hot,4,MMO,1,paypal,2,Seo,1,
ltr
item
ONTADA: ROBOTS.TXT CHUẨN CHO BLOGGER/BLOGSPOT 2018
ROBOTS.TXT CHUẨN CHO BLOGGER/BLOGSPOT 2018
https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEghB5Cxtq4eqmvkX65I9uhgSNWDJjXA1IsF6M5I4jc0xT-vreKwHITxhyx1HyUDftMpVAC7OK4M3VgPWpiuBoWeoie3X9xENZj1EXg8RhUMyDJCcQdR0dktPWCTxWfYw2xTayMydEsNuWA/s640/robots-txt-file.jpg
https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEghB5Cxtq4eqmvkX65I9uhgSNWDJjXA1IsF6M5I4jc0xT-vreKwHITxhyx1HyUDftMpVAC7OK4M3VgPWpiuBoWeoie3X9xENZj1EXg8RhUMyDJCcQdR0dktPWCTxWfYw2xTayMydEsNuWA/s72-c/robots-txt-file.jpg
ONTADA
https://ontada.blogspot.com/2019/03/robotstxt-chuan-cho-bloggerblogspot-2018.html
https://ontada.blogspot.com/
https://ontada.blogspot.com/
https://ontada.blogspot.com/2019/03/robotstxt-chuan-cho-bloggerblogspot-2018.html
true
7130172088368926427
UTF-8
Loaded All Posts Not found any posts VIEW ALL Readmore Reply Cancel reply Delete By Home PAGES POSTS View All RECOMMENDED FOR YOU LABEL ARCHIVE SEARCH ALL POSTS Not found any post match with your request Back Home Sunday Monday Tuesday Wednesday Thursday Friday Saturday Sun Mon Tue Wed Thu Fri Sat January February March April May June July August September October November December Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec just now 1 minute ago $$1$$ minutes ago 1 hour ago $$1$$ hours ago Yesterday $$1$$ days ago $$1$$ weeks ago more than 5 weeks ago Followers Follow THIS PREMIUM CONTENT IS LOCKED STEP 1: Share to a social network STEP 2: Click the link on your social network Copy All Code Select All Code All codes were copied to your clipboard Can not copy the codes / texts, please press [CTRL]+[C] (or CMD+C with Mac) to copy