★ 網頁的搜索主要分為兩類:靜態網頁搜索和動態網頁搜索。
✈ 靜態網頁搜索:是指網頁的內容都是在.html(或htm)或.js中,並不需要從數據庫服務器中讀取后再顯示出網頁內容,簡而言之,就是不涉及數據庫存取的網頁就算是靜態網頁。實現靜態網頁的站內搜索功能是比較簡單的,因為只要搜索各網頁的源文件與各網頁所要使用到的文件就行了;
✈ 動態網頁搜索:是指網頁的內容需要存取數據庫之后才能正確地顯示出來;
✪ 提高網頁被搜索到的幾率 & 不被搜索網站找到或檢索到
提高網頁被搜索到的幾率
1.付費解決,省力不省錢!;
2.關鍵字的設置,在<head></head>中添加如下代碼
<meta name="keywords" content="..."> <!--在content中添加關鍵字-->
使用關鍵字的注意點
- 關鍵字盡量是簡單、常見,但又不能到處都有,罕見又不能太特殊!
- keywords提供的網頁關鍵詞通常是為搜索引擎分類網頁使用的;
- 可以為網頁提供多個關鍵詞,多個關鍵詞應該使用空格分開;
- 不要給網頁定義過多的關鍵詞,最好保持在10個以下,過多的關鍵詞,搜索引擎將忽略;
- 不要給網頁定義與網頁描述內容無關的關鍵詞;
- 由於網頁制作者濫用keywords(提供過多的關鍵詞或者提供與網頁無關的關鍵詞),導致目前常用的搜索引擎降低了keywords的重要性。
不被搜索網站找到或檢索到
1.設置robots.txt
a.針對整個網站中的所以網頁,或是某個(或某些)文件夾下的所有網頁不想被搜索引擎找到;
User-Agent:* ← 此處為 “*” 表示適用於所有的搜索引擎 Disallow:/ ← 此處為 “/” 表示適用於所有網頁都不會被搜索
b.針對某個(或某些)文件夾下的所有網頁不要被檢索(把網絡服務器中主頁所在的文件夾當作根目錄)
User-Agent:* Disallow:/floder1 ← 此處為 floder1、floder2都是文件夾名稱,sub則是在floder2下的子文件夾的名稱
Disallow:/floder2/sub1
robots.txt文件配置完成保存,然后將這個robots.txt上傳到網站服務器中主頁所在的文件夾中即可。
2.設置在meta標簽
此方法是在<head></head>中添加如下語句實現的。
<meta name="robots" content="none,noindex,notfollow" />
關於meta robots搜索引起方式,參見“夢之都”的相關資料
3.測底有效的阻擋方法
前面提到通過robots.txt與<meta>標簽中的設置來避免被搜索引擎找到,但是!如果搜索引擎不理會那兩個設置直接對網頁內容進行搜索與創建索引,則還是可以找到索要避免被找到的網站或網頁。幸運的是,大多數知名搜索引擎並不會這樣子“任性”,所以前面的兩項設置還是有一定作用的。
解決辦法a.使用密碼
既然是少數人才可觀看的網頁,則設計成必須輸入密碼(或用戶名與密碼)后才可進入網站(或網頁)應該是合理的。而且此方法可以徹底阻擋各種搜索引擎與類似工具的搜索,只是驗證密碼的程序不可放在網頁中(否則搜索引擎與類似的工具不就找到了嗎?或是網友查看源碼也可以看到),因此必須設計成ASP或JSP等才可以;
解決方法b.網頁編碼
所謂對網頁進行編碼就是瀏覽者使用瀏覽器觀看時才進行解碼還原成一般的HTML代碼,如此不僅搜索引擎與搜索工具無用武之地,而且因而能夠一般的瀏覽者無法(或不容易)檢查網頁源碼的真正內容!
參考資料:《全民搞網頁——博客|個人站|網店|論壇》程秉輝