【Python項目】簡單爬蟲批量獲取資源網站的下載鏈接


簡單爬蟲批量獲取資源網站的下載鏈接

項目鏈接:https://github.com/RealIvyWong/GotDownloadURL

1 由來

自己在收集劇集資源的時候,這些網站的下載鏈接還要手動一個一個復制到百度雲離線下載里,稍微懂了一點編程就不想做這種無意義的勞動了。於是就寫了一個這樣的一個小項目。

目前支持的網站有美劇天堂追新番。(其他網站要不就是我還不知道,要不就是資源並不好……)

2 環境依賴

使用的Python 3.7

需要額外安裝的應該就只有bs4。

直接使用pip就能安裝。

pip install bs4

3 使用方法

3.1 美劇天堂

代碼地址:美劇天堂

比如說你看到了神盾局特工第五季的頁面(https://www.meijutt.com/content/meiju23091.html)。

然后想要第1個標簽【中字720P】下面的這些鏈接。

1545030718937

那么就把代碼里的這一段的參數改一改。

1545032103717

就可以直接Run了。

成功大概是這樣的畫面。

1545032142480

得到的txt如下。

1545032171009

然后把這些復制到下載工具就好啦!

3.2 追新番

比如說你看到了橋本環奈的新劇我是大哥大的頁面(http://zhuixinfan.com/viewtvplay-930.html)。

資源列表是這樣的。

1545032844589

一共有十集,那么把代碼里的參數改一下。大概下面這樣,ep_n表示的是集數,為什么要這個參數,后面再說。

1545032999231

然后可以直接Run了。

成功的畫面是這樣。

1545033077052

得到的txt是這樣。

1545033110319

然后把這些復制到下載工具就好啦!

但是!這個追新番……網頁,有點傻。比如李狗嗨的頁面!竟然是把資源全部都擠在一頁!我驚呆了……大家都不想下重復資源的,要下就下高清點的資源,所以代碼里對此進行了選擇。

1545033290622

以及日劇里是有SP的概念的,不一定是Ep,所以要用戶告訴程序一共要下多少個資源(集數)。

4 Contact Me

如果有什么Bug,或者有其他比較好的資源網站(誤。請聯系我!(924154233@qq.com)


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM