模型輸出意想不到的結果。最近,在物理世界中成功實施的一系列對抗性攻擊證明了此問題是所有基於深度學習系統 ...
近幾年,機器學習異常火爆,可以用來解決各種各樣的問題,但卻很少有人意識到機器學習本身也容易受到攻擊,終於Ian Goodfellow和Papernot首次將機器學習的攻擊提出,並且做了很多非常重要的研究,這里給出這二位大牛的博客的翻譯,有興趣的朋友可以關注一下,覺得還是很有意思的研究。本文也是安全方面的學習,有興趣的希望可以一起討論學習 轉載請注明出處 一 背景 直到幾年前,機器學習算法在許多有 ...
2017-07-25 21:56 3 8175 推薦指數:
模型輸出意想不到的結果。最近,在物理世界中成功實施的一系列對抗性攻擊證明了此問題是所有基於深度學習系統 ...
對抗性魯棒性與模型壓縮:ICCV2019論文解析 Adversarial Robustness vs. Model Compression, or Both? 論文鏈接: http://openaccess.thecvf.com/content_ICCV_2019 ...
網絡安全中機器學習大合集 from:https://github.com/jivoi/awesome-ml-for-cybersecurity/blob/master/README_ch.md#-datasets 歷年來那些與網絡安全中機器學習相關最好的工具與資源 目錄 數據集 ...
©作者 | Doreen 01 聯邦學習的背景知識 近年來,隨着大量數據、更強的算力以及深度學習模型的出現,機器學習在各領域的應用中取得了較大的成功。 然而在實際操作中,為了使機器學習有更好的效果,人們不得不將大量原始數據送入模型中訓練,這使得一些敏感數據被惡意的攻擊者竊取 ...
機器學習--分類問題 分類問題是監督學習的一個核心問題,它從數據中學習一個分類決策函數或分類模 型(分類器(classifier)),對新的輸入進行輸出預測,輸出變量取有限個離散值。 決策樹 決策樹 ...
最近碰到一個問題,其中的陽性數據比陰性數據少很多,這樣的數據集在進行機器學習的時候會使得學習到的模型更偏向於預測結果為陰性。查找了相關的一些文獻,了解了一些解決這個問題的一些方法和技術。 首先,數據集不平衡會造成怎樣的問題呢。一般的學習器都有下面的兩個假設:一個是使得學習器的准確率最高 ...
修正網絡會不斷震盪,無法形成一個收斂網絡。因而DNN的訓練中可以形成很多tricks。。 1、初始化 ...
在實際中,訓練模型用的數據並不是均衡的,在一個多分類問題中,每一類的訓練樣本並不是一樣的,反而是差距很大。比如一類10000,一類500,一類2000等。解決這個問題的做法主要有以下幾種: 欠采樣:就是把多余的樣本去掉,保持這幾類樣本接近,在進行學習。(可能會導致過擬合) 過采樣:就是增加比較 ...