亚洲中文字幕久在线|人人做人人爱国产97|亚洲国内精品自在线影视|欧美日韩无一区二三区国产|91欧美精品激情在线观看|亚洲图片在线欧美专区图片|国产无吗一区二区三区在线欢|成人国内免费精品视频在线观看

臺州網(wǎng)站設(shè)計(jì)

臺州網(wǎng)站設(shè)計(jì) 服務(wù)熱線:189-6848-5822  在線服務(wù):

首頁 關(guān)于創(chuàng)遠(yuǎn) 服務(wù)項(xiàng)目 成功案例 客戶服務(wù) 新聞中心 客戶留言 聯(lián)系我們
臺州網(wǎng)站設(shè)計(jì)
 
臺州網(wǎng)站設(shè)計(jì)
服務(wù)流程
建站知識
常見問題
   
 
搜索引擎的蜘蛛人(ROBOTS)秘密
 

我們知道,搜索引擎都有自己的“搜索機(jī)器人”(ROBOTS),并通過這些ROBOTS在網(wǎng)絡(luò)上沿著網(wǎng)頁上的鏈接(一般是http和src鏈接)不斷抓取資料建立自己的數(shù)據(jù)庫。

  對于網(wǎng)站管理者和內(nèi)容提供者來說,有時候會有一些站點(diǎn)內(nèi)容,不希望被ROBOTS抓取而公開。為了解決這個問題,ROBOTS開發(fā)界提供了兩個辦法:一個是robots.txt,另一個是The Robots META標(biāo)簽。  

  一、robots.txt

  1、 什么是robots.txt?

  robots.txt是一個純文本文件,通過在這個文件中聲明該網(wǎng)站中不想被robots訪問的部分,這樣,該網(wǎng)站的部分或全部內(nèi)容就可以不被搜索引擎收錄了,或者指定搜索引擎只收錄指定的內(nèi)容。

  當(dāng)一個搜索機(jī)器人訪問一個站點(diǎn)時,它會首先檢查該站點(diǎn)根目錄下是否存在robots.txt,如果找到,搜索機(jī)器人就會按照該文件中的內(nèi)容來確定訪問的范圍,如果該文件不存在,那么搜索機(jī)器人就沿著鏈接抓取。

  robots.txt必須放置在一個站點(diǎn)的根目錄下,而且文件名必須全部小寫。

  網(wǎng)站 URL       相應(yīng)的 robots.txt的 URL
 
http://www.w3.org/    http://www.w3.org/robots.txt
 
http://www.w3.org:80/   http://www.w3.org:80/robots.txt
 
http://www.w3.org:1234/  http://www.w3.org:1234/robots.txt
 
http://w3.org/      http://w3.org/robots.txt

  2、 robots.txt的語法


  "robots.txt"文件包含一條或更多的記錄,這些記錄通過空行分開(以CR,CR/NL, or NL作為結(jié)束符),每一條記錄的格式如下所示:

  "<field>:<optionalspace><value><optionalspace>"。

  在該文件中可以使用#進(jìn)行注解,具體使用方法和UNIX中的慣例一樣。該文件中的記錄通常以一行或多行User-agent開始,后面加上若干Disallow行,詳細(xì)情況如下:

  User-agent: 

  該項(xiàng)的值用于描述搜索引擎robot的名字,在"robots.txt"文件中,如果有多條User-agent記錄說明有多個robot會受到該協(xié)議的限制,對該文件來說,至少要有一條User-agent記錄。如果該項(xiàng)的值設(shè)為*,則該協(xié)議對任何機(jī)器人均有效,在"robots.txt"文件中, "User-agent:*"這樣的記錄只能有一條。

  Disallow :

  該項(xiàng)的值用于描述不希望被訪問到的一個URL,這個URL可以是一條完整的路徑,也可以是部分的,任何以Disallow 開頭的URL均不會被robot訪問到。例如"Disallow: /help"對/help.html 和/help/index.html都不允許搜索引擎訪問,而"Disallow: /help/"則允許robot訪問/help.html,而不能訪問/help/index.html。

  任何一條Disallow記錄為空,說明該網(wǎng)站的所有部分都允許被訪問,在"/robots.txt"文件中,至少要有一條Disallow記錄。如果 "/robots.txt"是一個空文件,則對于所有的搜索引擎robot,該網(wǎng)站都是開放的。 

  下面是一些robots.txt基本的用法:

  禁止所有搜索引擎訪問網(wǎng)站的任何部分:

User-agent: *
Disallow: /

  允許所有的robot訪問

User-agent: *
Disallow:

  或者也可以建一個空文件 "/robots.txt" file

  禁止所有搜索引擎訪問網(wǎng)站的幾個部分(下例中的cgi-bin、tmp、private目錄)

User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /private/

  禁止某個搜索引擎的訪問(下例中的BadBot)
User-agent: BadBot
Disallow: /

  只允許某個搜索引擎的訪問(下例中的WebCrawler)
User-agent: WebCrawler
Disallow:

User-agent: *
Disallow: /

  3、常見搜索引擎機(jī)器人Robots名字


名稱                     搜索引擎

Baiduspider            http://www.baidu.com 

Scooter              http://www.altavista.com 

ia_archiver             http://www.alexa.com 

Googlebot           http://www.google.com 

FAST-WebCrawler http://www.alltheweb.com 

Slurp                  http://www.inktomi.com 

MSNBOT            http://search.msn.com 

返回】 【字號 發(fā)布日期:2009-5-9
  上一篇: 企業(yè)網(wǎng)站建設(shè)網(wǎng)頁設(shè)計(jì)的“大氣”   下一篇: 什么是網(wǎng)站PR值?PR值對搜索引擎排名有什么價值
 
www.58baozhuang.com  Xml網(wǎng)站地圖  Html網(wǎng)站地圖  Copyright 2008 - 2022 All rights reserved. 版權(quán)所有 © 臺州創(chuàng)遠(yuǎn)網(wǎng)絡(luò)技術(shù)有限公司 浙ICP備11018227號
地址:臺州市椒江區(qū)東環(huán)大道(星星廣場對面)君悅大廈B幢1217-1室 郵編:318000  電話:189-6848-5822 E-mail:tzcyuan@163.com

  本頁關(guān)鍵詞:臺州網(wǎng)站設(shè)計(jì)