<button id="6mgm8"><strong id="6mgm8"></strong></button>
  • <code id="6mgm8"><tr id="6mgm8"></tr></code>
    <xmp id="6mgm8"><bdo id="6mgm8"></bdo>
    <rt id="6mgm8"><delect id="6mgm8"></delect></rt>
  • 
    
  • 網(wǎng)站SEO優(yōu)化中Robots是什么意思,Robots.txt文件怎么寫

    客服QQ:99164055

    24h客戶經(jīng)理:18028862882
    我要分享

    網(wǎng)站SEO優(yōu)化中Robots是什么意思,Robots.txt文件怎么寫

    2020-02-04 21:12:56

    Robots在網(wǎng)站SEO優(yōu)化工作中,是比較重要的一個環(huán)節(jié),特別是當(dāng)你的網(wǎng)站包含不希望被搜索引擎收錄的內(nèi)容的時候,Robots.txt文件能告訴蜘蛛哪些可以抓取,哪些不能抓取。很多新手和站長朋友對Robots不是很了解,今天,網(wǎng)站SEO優(yōu)化—梓琳SEO為大家分享的是:網(wǎng)站SEO優(yōu)化中Robots是什么意思,Robots.txt文件怎么寫


    Robots是什么意思
    網(wǎng)站SEO優(yōu)化中Robots是什么意思,Robots . txt的定義

    Robots . txt又稱爬蟲協(xié)議、機(jī)器人協(xié)議等。簡單的來說,它告訴搜索引擎哪些頁面可以被抓取,哪些頁面不能被抓取。當(dāng)蜘蛛訪問站點時,它首先檢查robots.txt是否存在于站點的根目錄中。如果存在,蜘蛛將根據(jù)Robots . txt文件內(nèi)容確定訪問范圍;如果Robots . txt文件不存在,蜘蛛將訪問站點上的所有頁面。

    網(wǎng)站SEO優(yōu)化中,Robots的作用

    1. 引導(dǎo)搜索引擎蜘蛛抓取特定的內(nèi)容或者欄目;

    2. 屏蔽對搜索引擎不友好的鏈接,特別是網(wǎng)站版面大幅度修改或URL重寫優(yōu)化的時候;

    3. 屏蔽死鏈和404錯誤頁面;

    4. 屏蔽無內(nèi)容、無價值的頁面,比如客戶留言頁面;

    5. 屏蔽重復(fù)頁面,如評論頁面,搜索結(jié)果頁面;

    6. 屏蔽任何不想被抓取,不想被收錄的頁面;

    7. 引導(dǎo)蜘蛛抓取網(wǎng)站地圖。

    Robots使用說明【百度站長】

    1. robots.txt可以告訴百度您網(wǎng)站的哪些頁面可以被抓取,哪些頁面不可以被抓取。

    2. 您可以通過Robots工具來創(chuàng)建、校驗、更新您的robots.txt文件,或查看您網(wǎng)站robots.txt文件在百度生效的情況。

    3. Robots工具目前支持48k的文件內(nèi)容檢測,請保證您的robots.txt文件不要過大,目錄最長不超過250個字符。

    4. 如需檢測未驗證站點的robots設(shè)置,請在百度站長上進(jìn)行檢測。


    Robots.txt文件怎么寫,以梓琳SEO為例
    Robots.txt文件怎么寫

    robots.txt文件的寫法,以zilinseo.com 梓琳SEO為例:

    1、User-agent:(定義搜索引擎)

    示例:

    User-agent: *(定義所有搜索引擎)

    User-agent: Googlebot (定義谷歌,只允許谷歌蜘蛛爬取)

    User-agent: Baiduspider (定義百度,只允許百度蜘蛛爬取)

    不同的搜索引擎的搜索機(jī)器人有不同的名稱,谷歌:Googlebot、百度:Baiduspider、MSN:MSNbot、Yahoo:Slurp。

    2、Disallow:(用來定義禁止蜘蛛爬取的頁面或目錄)

    示例:

    Disallow: /(禁止蜘蛛爬取網(wǎng)站的所有目錄 "/" 表示根目錄下)

    Disallow: /admin (禁止蜘蛛爬取admin目錄)

    Disallow: /abc.html (禁止蜘蛛爬去abc.html頁面)

    Disallow: /lianxiwomen.html (禁止蜘蛛爬去lianxiwomen.html頁面)

    3、Allow:(用來定義允許蜘蛛爬取的頁面或子目錄)

    示例:

    Allow: /admin/test/(允許蜘蛛爬取admin下的test目錄)

    Allow: /admin/abc.html(允許蜘蛛爬去admin目錄中的abc.html頁面)

    4、匹配符 “$”

    $ 通配符:匹配URL結(jié)尾的字符

    5、通配符 “*”

    * 通配符:匹配0個或多個任意字符


    Robots.txt需要注意的問題
    Robots.txt文件需要注意的問題

    1、robots.txt 文件必須放在網(wǎng)站的根目錄中,不可以放在子目錄中。

    比如以梓琳SEO為例,robots.txt 文件放網(wǎng)站根目錄。通過http://www.zilinseo.com/robots.txt 你就可以訪問www.zilinseo.com的robots.txt文件了。

    2、robots.txt 文件命令必須小寫,記得是robots而不是robot。

    3、User-agent、Allow、Disallow的 “:” 后面有一個字符的空格。

    4、路徑后面加斜杠“/” 和不加斜杠的是有區(qū)別的

    比如:Disallow: /help

    禁止蜘蛛訪問 /help.html、/help/abc.html、/help/index.html

    Disallow: /help/

    禁止蜘蛛訪問 /help/index.html。 但允許訪問 /help.html、/helpabc.html

    網(wǎng)站SEO優(yōu)化中Robots是什么意思,Robots.txt文件怎么寫—梓琳SEO的分享到這里就結(jié)束了,robots文件相當(dāng)于給蜘蛛方向指引,減少不必要的抓取任務(wù)。特別是當(dāng)網(wǎng)站改版,有死鏈或者不想收錄的頁面的時候,Robots.txt文件更為重要。

    SEO報價

    深圳拓客網(wǎng)絡(luò)服務(wù)有限公司

    技術(shù)中心:深圳市寶安區(qū) 西鄉(xiāng)街道,西鄉(xiāng)路5-511

    公司總部:深圳市南山區(qū)西麗湖路4221-71

    大客戶經(jīng)理:(+86)-18028862882

    營銷熱線:18028862882

    QQ:99164055 郵箱:99164055@qq.com

    主站蜘蛛池模板: 沈丘县| 福清市| 松阳县| 平谷区| 仪征市| 鄂伦春自治旗| 广东省| 高唐县| 铜梁县| 广丰县| 白银市| 清水河县| 高唐县| 黔江区| 内江市| 黑龙江省| 七台河市| 博爱县| 樟树市| 五大连池市| 岳池县| 介休市| 凯里市| 禹城市| 宝应县| 灌阳县| 永吉县| 鲁山县| 胶州市| 三台县| 丹棱县| 富源县| 江口县| 兴安县| 乌拉特后旗| 甘南县| 阜新市| 大英县| 武清区| 绥宁县| 崇信县|