近日,上海軟件中心獲得 “一種圖像分類(lèi)系統對抗性樣本生成方法、系統及電子設備” 發(fā)明專(zhuān)利授權,專(zhuān)利號為:ZL 2023 1 1411509.0。
深度神經(jīng)網(wǎng)絡(luò )(Deep Neural Networks,DNN)容易受到對抗性樣本的影響,對抗性樣本指針對深度神經(jīng)網(wǎng)絡(luò )故意構造的擾動(dòng)圖像,這種對抗性樣本可以導致深度神經(jīng)網(wǎng)絡(luò )產(chǎn)生圖像分類(lèi)錯誤。生成對抗性樣本的目的為了發(fā)現深度神經(jīng)網(wǎng)絡(luò )的脆弱性,從而進(jìn)一步提升圖像分類(lèi)系統的魯棒性。利用對抗性樣本實(shí)施對抗攻擊,根據擾動(dòng)是否可在現實(shí)中部署,分成數字世界攻擊和物理世界攻擊,其中物理世界對抗攻擊模式通常為貼在圖像上的補丁,具有更廣泛的應用前景。
本發(fā)明公開(kāi)一種圖像分類(lèi)系統對抗性樣本生成方法、系統及電子設備,涉及黑盒對抗攻擊技術(shù)領(lǐng)域,該方法包括:根據預設下游任務(wù),獲取i種類(lèi)別的圖像;每種類(lèi)別均包括j張圖像;將各類(lèi)別的圖像分別求均值,得到對應類(lèi)別的均值圖像;基于各類(lèi)別的均值圖像確定對應類(lèi)別的類(lèi)別敏感補丁區域;獲取目標圖像;基于目標圖像、微調后的替代圖像分類(lèi)模型和攻擊區域修正網(wǎng)絡(luò ),確定實(shí)例敏感補丁區域;基于類(lèi)別敏感補丁區域和實(shí)例敏感補丁區域確定待填充補丁區域;基于目標圖像和微調后的替代圖像分類(lèi)模型,確定補丁紋理;基于待填充補丁區域、補丁紋理和目標圖像,得到對抗性樣本。本發(fā)明提高了圖像分類(lèi)系統對抗性樣本的遷移性。
電話(huà):86-21-54325166
傳真:86-21-54325591
地址:中國上海聯(lián)航路1588號技術(shù)中心大樓3樓
版權所有 ?2021. 上海計算機軟件技術(shù)開(kāi)發(fā)中心 All Rights Reserved 滬公網(wǎng)安備 31011202012393號,滬ICP備14033306號-25