![]() |
Hướng dẫn tạo file robots.txt tối ưu cho Blogspot hiệu quả |
File robots.txt là một tập tin dùng để hướng dẫn cho các robot của các công ty tìm kiếm như Google, Bing, Yahoo về các trang web nào mà họ có thể hoặc không có thể truy cập và index. Tạo một tập tin robots.txt trên blogspot của bạn có thể giúp bạn tối ưu SEO cho blog của mình và tránh việc các trang web không mong muốn được index.
{tocify} $title={Nội dung bài viết}1. Các bước tạo file Robots.txt cho Blogspot
- Bước 1: Tạo một tập tin robots.txt
Để tạo một tập tin robots.txt, bạn cần truy cập vào blogspot của mình và thêm /robots.txt vào URL của trang web của mình. Ví dụ: www.example.com/robots.txt.
- Bước 2: Sử dụng cú pháp để chỉ định các trang web mà robot không truy cập
Sau khi tạo tập tin robots.txt, bạn cần sử dụng cú pháp sau để chỉ định các trang web mà robot không truy cập: User-agent: [tên robot] Disallow: [đường dẫn trang web].
Ví dụ, nếu bạn muốn chặn robot của Google từ truy cập vào trang www.example.com/private, bạn có thể sử dụng cú pháp sau:
User-agent: Googlebot
Disallow: /private/
- Bước 3: Lưu tập tin và kiểm tra
Sau khi hoàn thành việc chỉ định, bạn cần lưu tập tin và kiểm tra xem nó đã hoạt động đúng hay chưa. Bạn có thể sử dụng công cụ như Google Search Console hoặc các công cụ kiểm tra robots.txt khác để kiểm tra xem tập tin robots.txt của bạn đã được tải lên và hoạt động chính xác hay chưa.
Lưu ý: Chúng ta nên luôn luôn tạo một tập tin robots.txt trên mỗi trang web để tránh việc các trang web không mong muốn được index và giảm thiểu rủi ro cho SEO của trang web.
Trong tổng quan, tạo và sử dụng file robots.txt trên blogspot là một phần quan trọng của việc tối ưu SEO. Nó giúp bạn chỉ định các trang web mà robot của các công ty tìm kiếm không cần phải truy cập và giúp bạn tối ưu hóa hiệu suất SEO cho trang web của mình.
2. Những loại Robots.txt có thể bạn chưa biết
2.1.Robots.txt loại 1
User-agent: Mediapartners-Google
Disallow:
User-agent: *
Disallow: /search
Disallow: /b
Allow: /
Sitemap: https://www.chiasevip.com/sitemap.xml
Đây là loại file robots.txt mặc định, cho phép tất cả các robot tìm kiếm truy cập vào tất cả các trang trên trang web của bạn.
2.2. Robots.txt loại 2
User-agent: Mediapartners-Google
Disallow:
User-agent: *
Disallow: /search
Disallow: /b
Allow: /
Sitemap: https://www.chiasevip.com/feeds/posts/default?orderby=updated
2.3. Robots.txt loại 3
User-agent: Mediapartners-Google
Disallow: ;
User-agent: *
Disallow: /search
Disallow: /b
Allow: /
Sitemap: https://www.chiasevip.com/atom.xml?redirect=false&start-index=1&max-results=500
Sitemap: https://www.chiasevip.com/atom.xml?redirect=false&start-index=501&max
Ngoài loại file robots.txt trên, còn có các loại khác như cho phép một số robot tìm kiếm truy cập vào trang web của bạn hoặc chặn một số trang cụ thể trên trang web của bạn. Tuy nhiên, loại file robots.txt trên là những loại phổ biến nhất và thường được sử dụng.
3. Hướng dẫn thêm file Robots.txt cho blogspot
Để tạo file robots.txt trên Blogspot, hãy thực hiện các bước sau:
- Truy cập vào trang quản lý blog của bạn.
- Chọn "Cài đặt" và kéo xuống phần "Trình thu thập thông tin và lập chỉ mục".
![]() |
Cách dùng file Robots.txt tối ưu SEO trên Blogspot đạt hiệu quả |
- Bật và Nhập nội dung vào file robots.txt.
- Lưu file robots.txt.
Lưu ý: Bạn đừng quên thay đổi địa chỉ https://www.chiasevip.com/ bằng địa chỉ blog của bạn.
Như vậy là Chia Sẻ Vip đã vừa hướng dẫn các bạn cách tạo và sử dụng Robots.txt trên Blogspot vô cùng đơn giản, các bạn có thể dễ dàng thực hiện. Thông qua bài viết này mong rằng các bạn sẽ có thể thực hiện được những gì chúng tôi hướng dẫn. Chúc các bạn thành công.
Nguồn: https://www.chiasevip.com/2023/02/tao-robots-txt-toi-uu-seo-blogspot.html