본문 바로가기

인공지능(AI) 이론과 코드/5. 컴퓨터 비전(CV)

(2)
[파이토치_Torchvision] 딥러닝 해킹방법 FGSM FGSM (Fast Gradient Sign Method) [ 한 줄 정의 ] 딥러닝 신경망을 혼란시킬 목적으로 만들어진 공격 방법 적대적 샘플이란 신경망을 혼란시킬 목적으로 만들어진 특수한 입력으로, 신경망으로 하여금 샘플을 잘못 분류하도록 합니다. 비록 인간에게 적대적 샘플은 일반 샘플과 큰 차이가 없어 보이지만, 신경망은 적대적 샘플을 올바르게 식별하지 못합니다. 이와 같은 신경망 공격에는 여러 종류가 있는데, FGSM은 화이트 박스(white box) 공격 기술에 속합니다. 화이트 박스 공격이란 공격자가 대상 모델의 모든 파라미터 값에 접근할 수 있다는 가정 하에 이루어지는 공격을 일컫습니다. [ 연구논문 ] GAN 적대적 신경망으로 유명한 Ian Goodfellow et al 님의 논문을 인용합..
torch.cat()과 torch.stack()의 차이점 파이토치에서 텐서들을 서로 병합하는(붙이는) 2가지 함수 torch.cat()과 torch.stack()의 차이점에 대해 알아봅니다. torch.cat()은 주어진 차원을 기준으로 주어진 텐서들을 붙입니다(concatenate). torch.stack()은 새로운 차원으로 주어진 텐서들을 붙입니다. 따라서, (3, 4)의 크기(shape)를 갖는 2개의 텐서 A와 B를 붙이는 경우, torch.cat([A, B], dim=0)의 결과는 (6, 4)의 크기(shape)를 갖고, torch.stack([A, B], dim=0)의 결과는 (2, 3, 4)의 크기를 갖습니다. 예를 들어 설명하기 위해, 아래 두 개의 텐서 t1, t2를 예시로 선언해보겠습니다. t1 = torch.tensor([[1, 2], [..

반응형
LIST