OpenAI最新研究:“對抗樣本”能輕易黑掉AI系統(tǒng),如何抵御?
OpenAI發(fā)表最新研究,論述了AI安全領域的一大隱憂:“對抗樣本”,它可以輕易地讓機器學習系統(tǒng)產(chǎn)生誤判,這會對AI的應用實踐產(chǎn)生影響。這篇由“GANs”之父Ian Goodfellow領銜撰寫的文章里,OpenAI針對“對抗樣本”進行了防御策略的實驗,其中有兩種方法效果顯著,但也并不能解決根本問題。OpenAI表示設計出抵抗強大、具有適應性攻擊者的防御策略,是非常重要的研究領域。


























粵公網(wǎng)安備 44030402000745號