FGSM #딥러닝해킹방법 #딥러닝해킹 #FGSM공격 (1) 썸네일형 리스트형 [파이토치_Torchvision] 딥러닝 해킹방법 FGSM FGSM (Fast Gradient Sign Method) [ 한 줄 정의 ] 딥러닝 신경망을 혼란시킬 목적으로 만들어진 공격 방법 적대적 샘플이란 신경망을 혼란시킬 목적으로 만들어진 특수한 입력으로, 신경망으로 하여금 샘플을 잘못 분류하도록 합니다. 비록 인간에게 적대적 샘플은 일반 샘플과 큰 차이가 없어 보이지만, 신경망은 적대적 샘플을 올바르게 식별하지 못합니다. 이와 같은 신경망 공격에는 여러 종류가 있는데, FGSM은 화이트 박스(white box) 공격 기술에 속합니다. 화이트 박스 공격이란 공격자가 대상 모델의 모든 파라미터 값에 접근할 수 있다는 가정 하에 이루어지는 공격을 일컫습니다. [ 연구논문 ] GAN 적대적 신경망으로 유명한 Ian Goodfellow et al 님의 논문을 인용합.. 이전 1 다음