精品国产乱码久久久久久蜜柚,黑人精品一区,成人久久精品视频,91精品中文字幕一区二区三区

robots.txt概念和10條注意事項

robots.txt概念

如果我們網站內有某些特殊的文件不讓搜索引擎收錄,那怎么辦?

答案是:使用一個叫做robots.txt的文件。

robots.txt文件告訴搜索引擎本網站哪些文件是允許搜索引擎蜘蛛抓取,哪些不允許抓取。

搜索引擎蜘蛛訪問網站任何文件之前,需先訪問robots.txt文件,然后抓取robots.txt文件允許的路徑,跳過其禁止的路徑。

總結:robots.txt是一個簡單的.txt文件,用以告訴搜索引擎哪些網頁可以收錄,哪些不允許收錄。


關于robots.txt文件的10條注意事項:

1、如果未創建robots.txt文件,則代表默認網站所有文件向所有搜索引擎開放爬取。

2、必須命名為:robots.txt,都是小寫,robot后面加"s"。

3、robots.txt必須放置在一個站點的根目錄下。

     通過如http://www.ccbillingsmt.com/robots.txt 可以成功訪問到,則說明本站的放置正確。

4、一般情況下,robots.txt里只寫著兩個函數:User-agent和 Disallow。

5、空格換行等不能弄錯,可復制這個頁面并修改為自己的。點擊

6、有幾個禁止,就得有幾個Disallow函數,并分行描述。

7、至少要有一個Disallow函數,如果都允許收錄,則寫: Disallow: 

    如果都不允許收錄,則寫:Disallow: /  (注:只是差一個斜桿)。

8、允許有多個User-agent,如果對所有爬取蜘蛛生效,則用“*”星號表示。

9、robtos.txt文件內可以放上Sitemap文件地址,方便告訴搜索引擎Sitemap文件地址。

10、網站運營過程中,可以根據情況對robots.txt文件進行更新,屏蔽一些不要搜索引擎抓取的文件地址。


舉例兩個常見屏蔽規則:

User-agent: *  星號說明允許所有搜索引擎收錄

Disallow: /search.html   說明 http://www.ccbillingsmt.com/search.html 這個頁面禁止搜索引擎抓取。

Disallow: /index.php?   說明類似這樣的頁面http://www.ccbillingsmt.com/index.php?search=%E5%A5%BD&action=search&searchcategory=%25 禁止搜索引擎抓取。


擴展閱讀:

robots.txt文件用法規范百度官方資料截圖版

本文由夫唯團隊編輯,如發現錯誤,歡迎通過客服微信反饋。

夫唯于2024年12月停止百度SEO研究和培訓。道別信: 夫唯:再見了百度SEO!

2025年1月正式啟動Google SEO培訓課程,一千零一夜帶領大家一起出海。

感興趣的同學,請添加招生客服小沫微信:seowhy2021。 微信掃碼添加客服人員

我們的目標:讓大家獨立站出海不再“望洋興嘆”。

主站蜘蛛池模板: 八宿县| 海兴县| 兴海县| 松潘县| SHOW| 盐津县| 湄潭县| 仪征市| 彰化县| 广东省| 内江市| 雷山县| 清河县| 遂川县| 绥芬河市| 丹江口市| 美姑县| 沭阳县| 镇远县| 碌曲县| 鹿泉市| 河池市| 咸丰县| 万安县| 海盐县| 榆林市| 永定县| 翁牛特旗| 曲沃县| 弥渡县| 湄潭县| 曲阜市| 廉江市| 织金县| 抚宁县| 年辖:市辖区| 定远县| 浮山县| 介休市| 开远市| 阜平县|
Processed in 0.163229 Second , 41 querys.