使用wget做站點鏡像及wget的高級用法


本文為大家介紹 使用wget做站點鏡像及wget的高級用法,供大家學習參考。

# wget -r -p -np -k http://xxx.edu.cn

-r 表示遞歸下載,會下載所有的鏈接,不過要注意的是,不要單獨使用這個參數,因為如果你要下載的網站也有別的網站的鏈接,wget也會把別的網站的東西下載下來,所以要加上-np這個參數,表示不下載別的站點的鏈接.
-np 表示不下載別的站點的鏈接.
-k 表示將下載的網頁里的鏈接修改為本地鏈接.
-p 獲得所有顯示網頁所需的元素,比如圖片什么的.

-E  或 --html-extension   將保存的URL的文件后綴名設定為“.html”

+++++++++++++++++++++++++++++++++++++++
# wget -c -t 0 -O rhel6_x86_64.iso http://zs.kan115.com:8080/rhel6_x86_64.iso

-c 斷點續傳
-t 0 反復嘗試的次數,0為不限次數
-O rhel6_x86_64.iso 把下載的文件命名為rhel6_x86_64.iso
http://zs.kan115.com:8080/rhel6_x86_64.iso 要下載的文件的網址

附:wget高級用法

wget的一些高級用法,比如另存為,后台下載,斷點下載。批量下載。
增加下載嘗試次數和測試下載鏈接是否生效。
記錄下載日志,下載和排除指定類型文 件。

1、下載單個文件
wget url+filename

下載過程中同時可以看到四項信息
已經下載的比例
已經下載的大小
當前下載的速度
剩余的時間

2、使用一個大寫O做參數表示另存為
wget -O save_name url

這種方法適用於對應鏈接中沒有顯式文件名的情況。

例如: wget -O xx.zip http://www.vim.org/scripts/download_script.php?src_id=7701

再用不帶-O參數的下載一次。

ls -al
總計 132
drwxr-xr-x 2 root root  4096 07-12 10:43 .
drwxr-xr-x 4 root root  4096 07-11 16:26 ..
-rw-r--r-- 1 root root 50243 07-12 10:43 download_script.php?src_id=7701
-rw-r--r-- 1 root root 50243 07-12 10:43 xx.zip

我們發現,下載的大小都是一樣。但是不帶-O參數的,文件名還要轉換一次。不如用-O參數方便。

mv "download_script.php?src_id=7701" yy.zip

3、指定下載速率
方法是使用wget --limit-rate

wget程序默認是使用所有的帶寬,如果
是在生產服務器上下載很大的文件就不可接受了。
為了避免這種情況使用--limit-rate參數
wget --limit-rate=200k http://www.openss7.org/repos/tarballs/strx25-0.9.2.1.tar.bz2

4、斷點下載
使用wget -c完成未完成的下載

下載到一半需要停下來干別的事情,用^c就可以停頓住。
回來后,繼續下載可以加一個-c參數。
注意:如果不加入-c,那么下載的文件會多出一個.1的后綴。

5、在后台下載
方法:加一個-b的參數

wget -b url/filename
為后台下載。下載經過寫入到wget-log文件中。

用tail -f wget-log查看下載日志

6、模擬在瀏覽器下下載
有的網站不允許客戶在非瀏覽器環境下下載。使用--user-agent來設置
wget --user-agent="Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.3) Gecko/2008092416 Firefox/3.0.3" URL-TO-DOWNLOAD

7、測試下載鏈接
方法:使用--spider
試圖做計划下載時候,需要先檢查一下下載鏈接是否有效。
wget --spider DOWNLOAD-URL
如果返回OK,則表示下載鏈接是正確的!

例如:
wget --spider "http://ip138.com/ips.asp?ip=58.251.193.137&action=2"
Spider mode enabled. Check if remote file exists.
--2010-07-12 11:36:32--  http://ip138.com/ips.asp?ip=58.251.193.137&action=2
正在解析主機 ip138.com... 221.5.47.136
Connecting to ip138.com|221.5.47.136|:80... 已連接。
已發出 HTTP 請求,正在等待回應... 200 OK
長度:7817 (7.6K) [text/html]
Remote file exists and could contain further links,
but recursion is disabled -- not retrieving.

8、增加嘗試次數
方法:--tries=1000
如果網速有問題,下載大文件的時候可能會發生錯誤,
默認wget嘗試20次鏈接。

如果嘗試75次,可以
wget --tires=75 DOWNLOAD-URL

9、下載多個文件使用wget -i
將多個下載鏈接寫入到一個download-file-list.txt文件中,而后用:
wget -i download-file-list.txt

10、下載整站
方法:用--mirror參數

當你要下載一個完整站點並實現本地瀏覽的時候,
wget --mirror -p --convert-links -P ./LOCAL-DIR WEBSITE-URL

參數講解:
--mirror:設置這個參數用來建立本地鏡像
-p:下載所有html文件適合顯示的元素
--convert-links:下載完成后,將文檔鏈接都轉換成本地的
-P ./LOCAL-DIR:保存所有的文件和目錄到指定文件夾下

11、下載時候禁止下載指定類型的文件
例如下載站點時候,不打算下載gif動畫圖片。
wget --reject=gif WEBSITE-TO-BE-DOWNLOADED

12、記錄下載日志
方法:使用小寫字母o
wget -o xx.html.log -O xx.html "http://ip138.com/ips.asp?ip=58.251.193.137&action=2"

檢查一下日志:
[root@localhost opt]# cat xx.html.log
--2010-07-12 11:57:22--  http://ip138.com/ips.asp?ip=58.251.193.137&action=2
正在解析主機 ip138.com... 221.5.47.136
Connecting to ip138.com|221.5.47.136|:80... 已連接。
已發出 HTTP 請求,正在等待回應... 200 OK
長度:7817 (7.6K) [text/html]
Saving to: `xx.html'
     0K .......        100% 65.5K=0.1s
2010-07-12 11:57:22 (65.5 KB/s) - `xx.html' saved [7817/7817]

13、是第9條的增強版。可以限制下載容量
wget -Q5m -i FILE-WHICH-HAS-URLS

當下載的文件達到5兆的時候,停止下載。
注意:如果不是對一個文件下載鏈接清單,對單個文件,
這個限制不會生效的。

14、和第11條正好相反,
這條技巧是講述如何僅僅下載指定類型的文件

從一個網站中下載所有的pdf文件:
wget -r -A.pdf http://url-to-webpage-with-pdfs/

15、使用wget完成ftp下 載
匿名ftp下載類似於http下載:
wget ftp-url即可。

如果是需要輸入用戶名和密碼,則是:
wget --ftp-user=USERNAME --ftp-password=PASSWORD DOWNLOAD-URL


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM