成人午夜性一级毛片_69堂国产欧美亚洲_5858成人免费A片_欧美香蕉视频在线观看_就爱av啪啪啪av_日本中文在线激情91_精品中文无码三级_班长解开乳罩胸又大又软_国产成人无码αV在线播放_91亚洲精品一区二区三区

收藏我們

簡體中文

  • 簡體中文
  • 繁體中文
  • English
    幫助中心
    首頁 - 幫助中心 - robots.txt注意事項有哪些?

    robots.txt注意事項有哪些?


    robots.txt概念

    如果我們網(wǎng)站內(nèi)有某些特殊的文件不讓搜索引擎收錄,那怎么辦?

    答案是:使用一個叫做robots.txt的文件。

    robots.txt文件告訴搜索引擎本網(wǎng)站哪些文件是允許搜索引擎蜘蛛抓取,哪些不允許抓取。

    搜索引擎蜘蛛訪問網(wǎng)站任何文件之前,需先訪問robots.txt文件,然后抓取robots.txt文件允許的路徑,跳過其禁止的路徑。

    總結(jié):robots.txt是一個簡單的.txt文件,用以告訴搜索引擎哪些網(wǎng)頁可以收錄,哪些不允許收錄。


    關(guān)于robots.txt文件的10條注意事項:

    1、如果未創(chuàng)建robots.txt文件,則代表默認(rèn)網(wǎng)站所有文件向所有搜索引擎開放爬取。

    2、必須命名為:robots.txt,都是小寫,robot后面加"s"。

    3、robots.txt必須放置在一個站點的根目錄下。

    4、一般情況下,robots.txt里只寫著兩個函數(shù):User-agent和 Disallow。

    5、空格換行等不能弄錯,可復(fù)制這個頁面并修改為自己的。

    6、有幾個禁止,就得有幾個Disallow函數(shù),并分行描述。

    7、至少要有一個Disallow函數(shù),如果都允許收錄,則寫: Disallow: 

        如果都不允許收錄,則寫:Disallow: /  (注:只是差一個斜桿)。

    8、允許有多個User-agent,如果對所有爬取蜘蛛生效,則用“*”星號表示。

    9、robtos.txt文件內(nèi)可以放上Sitemap文件地址,方便告訴搜索引擎Sitemap文件地址。

    10、網(wǎng)站運營過程中,可以根據(jù)情況對robots.txt文件進(jìn)行更新,屏蔽一些不要搜索引擎抓取的文件地址。

    增值電信業(yè)務(wù)經(jīng)營許可證:蘇B2-20220230 在線數(shù)據(jù)處理與交易許可證:蘇B2-20220230 蘇公網(wǎng)安備 32010502010503號

    Copyright ? 2016-現(xiàn)在 中介網(wǎng) ningtui.com All rights reserved 南京寧推網(wǎng)絡(luò)科技有限公司 版權(quán)所有 蘇ICP備2021053574號-1

    025-822-26665