robots文件怎么制作 mcp016是什么東西?
mcp016是什么東西?是mcp016的博客,由于該網(wǎng)站的robots.txt文件存在限制指令。怎么讓別人在搜索引擎上搜索不到自己的信息?不做SEO優(yōu)化,設(shè)置robots.txt文件拒絕所有搜索引擎訪
mcp016是什么東西?
是mcp016的博客,由于該網(wǎng)站的robots.txt文件存在限制指令。
怎么讓別人在搜索引擎上搜索不到自己的信息?
不做SEO優(yōu)化,設(shè)置robots.txt文件拒絕所有搜索引擎訪問(wèn),這樣你就不會(huì)被別人搜到。如果你是只想讓某個(gè)人看不到,在網(wǎng)站后臺(tái)屏蔽它的ip,把他拉入黑名單就可以了,至于它的ip可以在網(wǎng)站訪問(wèn)日志看到。
測(cè)試的網(wǎng)站不想被百度抓取,也不想搜索關(guān)鍵詞排名,應(yīng)該怎設(shè)置?
有些站長(zhǎng)比較喜歡將站點(diǎn)上線測(cè)試(不喜歡在本地測(cè)試),但是又不想被百度等搜索引擎抓取,那么應(yīng)該怎么暫時(shí)屏蔽呢?今天boke112就跟大家簡(jiǎn)單介紹幾種方法。
方法一:WordPress站點(diǎn)的直接后臺(tái)設(shè)置WordPress站點(diǎn)可以直接登錄站點(diǎn)后臺(tái) gtgt 設(shè)置 gtgt 閱讀 gtgt 勾選“建議搜索引擎不索引本站點(diǎn)”并點(diǎn)擊【保存更改】即可。
方法二:通過(guò)robots.txt禁止直接在網(wǎng)站根目錄中新建一個(gè)robots.txt文件,然后在文件中添加以下代碼:
User-Agent: *
Disallow: /
方法三:通過(guò)noindex標(biāo)記來(lái)禁止直接在站點(diǎn)的頭文件文件中添加以下代碼:
ltmeta namerobots contentnoindex gt
方法四:通過(guò)PHP代碼禁止(WordPress站點(diǎn)為例)將以下代碼添加到主題目錄的當(dāng)中:
ob_start(Deny_Spider_Advanced)
function Deny_Spider_Advanced() {
$UA $_SERVER[HTTP_USER_AGENT]
$Spider_UA /(spider|bot|)/i //定義需要禁止的蜘蛛U(xiǎn)A,一般是spider和bot
//如果檢測(cè)到UA不為空而且發(fā)現(xiàn)是蜘蛛則返回404
if($UA ampamp preg_match_all($Spider_UA,$UA)) {
header(HTTP/1.1 403 )
header(status: 403 )
}
}
可以自行替換或添加以上的spider|bot,多個(gè)用|隔開(kāi)即可。
方法五:Nginx禁止在server{}中添加以下代碼:
#如果抓取的UA中含有spider或bot時(shí)返回403
if ($http_user_agent ~* spider|bot) {
return 403 #如果是刪除已收錄的,則可以返回404
break
}
可以自行替換或添加以上的spider|bot,多個(gè)用|隔開(kāi)即可。
方法六:Apache禁止在.htaccess中添加以下代碼:
RewriteEngine On
RewriteCond %{HTTP_USER_AGENT} (^$|spider|bot) [NC]
RewriteRule ^(.*)$ - [F]
可以自行替換或添加以上的spider|bot,多個(gè)用|隔開(kāi)即可。
總結(jié)
理論上以上6種方法都有效,建議找適合自己站點(diǎn)的一種辦法來(lái)使用即可。一般采用方法二比較普遍,如果能夠結(jié)合方法五或六來(lái)使用估計(jì)效果更佳。