原文:機器學習中安全與隱私問題(對抗性攻擊)

近幾年,機器學習異常火爆,可以用來解決各種各樣的問題,但卻很少有人意識到機器學習本身也容易受到攻擊,終於Ian Goodfellow和Papernot首次將機器學習的攻擊提出,並且做了很多非常重要的研究,這里給出這二位大牛的博客的翻譯,有興趣的朋友可以關注一下,覺得還是很有意思的研究。本文也是安全方面的學習,有興趣的希望可以一起討論學習 轉載請注明出處 一 背景 直到幾年前,機器學習算法在許多有 ...

2017-07-25 21:56 3 8175 推薦指數:

查看詳情

深度學習對抗攻擊對抗防御

模型輸出意想不到的結果。最近,在物理世界成功實施的一系列對抗性攻擊證明了此問題是所有基於深度學習系統 ...

Mon Jun 15 05:36:00 CST 2020 0 4020
網絡安全機器學習大合集 Awesome

網絡安全機器學習大合集 from:https://github.com/jivoi/awesome-ml-for-cybersecurity/blob/master/README_ch.md#-datasets 歷年來那些與網絡安全機器學習相關最好的工具與資源 目錄 數據集 ...

Tue Mar 06 01:56:00 CST 2018 0 3225
數據分析綜述:聯邦學習的數據安全隱私保護問題

©作者 | Doreen 01 聯邦學習的背景知識 近年來,隨着大量數據、更強的算力以及深度學習模型的出現,機器學習在各領域的應用取得了較大的成功。 然而在實際操作,為了使機器學習有更好的效果,人們不得不將大量原始數據送入模型訓練,這使得一些敏感數據被惡意的攻擊者竊取 ...

Sat Feb 26 02:47:00 CST 2022 0 1275
機器學習--分類問題

機器學習--分類問題 分類問題是監督學習的一個核心問題,它從數據中學習一個分類決策函數或分類模 型(分類器(classifier)),對新的輸入進行輸出預測,輸出變量取有限個離散值。 決策樹 決策樹 ...

Fri Nov 15 05:31:00 CST 2019 0 375
機器學習的數據不平衡問題

最近碰到一個問題,其中的陽性數據比陰性數據少很多,這樣的數據集在進行機器學習的時候會使得學習到的模型更偏向於預測結果為陰性。查找了相關的一些文獻,了解了一些解決這個問題的一些方法和技術。 首先,數據集不平衡會造成怎樣的問題呢。一般的學習器都有下面的兩個假設:一個是使得學習器的准確率最高 ...

Tue Jun 16 17:15:00 CST 2015 0 2958
機器學習樣本不均衡的問題

在實際,訓練模型用的數據並不是均衡的,在一個多分類問題中,每一類的訓練樣本並不是一樣的,反而是差距很大。比如一類10000,一類500,一類2000等。解決這個問題的做法主要有以下幾種: 欠采樣:就是把多余的樣本去掉,保持這幾類樣本接近,在進行學習。(可能會導致過擬合) 過采樣:就是增加比較 ...

Wed Apr 25 19:34:00 CST 2018 0 867
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM