在线观看日韩在线视频,亚洲 日韩 欧美 另类 国产,日本不卡一区二区三区最新,亚洲欧美一区在线观看

    <menuitem id="e5txj"></menuitem>

    <small id="e5txj"><menuitem id="e5txj"></menuitem></small>
    每個(gè)路徑之前都要包含:"/" 增加限制目錄
    谷歌為xml格式,百度為html格式
    增加Sitemap

    默認(rèn)-所有搜索引擎:
    檢索間隔:
    國(guó)內(nèi)搜索引擎

    百度
    SOSO
    搜狗
    有道
    國(guó)外搜索引擎

    谷歌
    Bing
    雅虎
    Ask/Teoma
    Alexa/Wayback
    Cuil
    MSN Search
    Scrub The Web
    DMOZ
    GigaBlast
    特殊搜索引擎(機(jī)器人)

    Google Image
    Google Mobile
    Yahoo MM
    Yahoo Blogs
    MSN PicSearch

         

    提示:請(qǐng)將以下結(jié)果保存到記事本,命名為robots.txt上傳到網(wǎng)站根目錄(點(diǎn)擊復(fù)制可復(fù)制全部結(jié)果)
    生成的robots結(jié)果:

    在線robots文件生成工具:Robots.txt 是存放在站點(diǎn)根目錄下的一個(gè)純文本文件,并且該文件是可以通過互聯(lián)網(wǎng)進(jìn)行訪問


    什么是robots.txt文件?

    1,Robots.txt 是存放在站點(diǎn)根目錄下的一個(gè)純文本文件。雖然它的設(shè)置很簡(jiǎn)單,但是作用卻很強(qiáng)大。
    它可以指定搜索引擎蜘蛛只抓取指定的內(nèi)容,或者是禁止搜索引擎蜘蛛抓取網(wǎng)站的部分或全部?jī)?nèi)容。
    2,robots.txt(統(tǒng)一小寫)是一種存放于網(wǎng)站根目錄下的ASCII編碼的文本文件,
    它通常告訴網(wǎng)絡(luò)搜索引擎的漫游器(又稱網(wǎng)絡(luò)蜘蛛),此網(wǎng)站中的哪些內(nèi)容是不應(yīng)被搜索引擎的漫游器獲取的,
    哪些是可以被(漫游器)獲取的。

    3,如果想單獨(dú)定義搜索引擎的漫游器訪問子目錄時(shí)的行為,那么可以將自定的設(shè)置合并到根目錄下的robots.txt,
    或者使用robots元數(shù)據(jù)。
    4,因?yàn)橐恍┫到y(tǒng)中的URL是大小寫敏感的,所以robots.txt的文件名應(yīng)統(tǒng)一為小寫。robots.txt應(yīng)放置于網(wǎng)站的根目錄下。

    5,robots.txt協(xié)議并不是一個(gè)規(guī)范,而只是約定俗成的,所以并不能保證網(wǎng)站的隱私。
    注意robots.txt是用字符串比較來確定是否獲取URL,所以目錄末尾有與沒有斜杠“/”表示的是不同的URL。robots.txt允許使用類似"Disallow: *.gif"這樣的通配符。
    6,Robots協(xié)議是國(guó)際互聯(lián)網(wǎng)界通行的道德規(guī)范,基于以下原則建立:1、搜索技術(shù)應(yīng)服務(wù)于人類,
    同時(shí)尊重信息提供者的意愿,并維護(hù)其隱私權(quán);2、網(wǎng)站有義務(wù)保護(hù)其使用者的個(gè)人信息和隱私不被侵犯。

    robots.txt文件使用方法


    1,Robots.txt 文件應(yīng)該放在網(wǎng)站根目錄下,并且該文件是可以通過互聯(lián)網(wǎng)進(jìn)行訪問的。
    例如:如果您的網(wǎng)站地址是 http://www.xxx.com/那么,該文件必須能夠通過 http://www.xxx.com/robots.txt 打開并看到里面的內(nèi)容。

    在線工具導(dǎo)航