전체 메뉴 바로가기 본문 내용 바로가기
헤더 및 전체메뉴 건너뛰기

오픈소스 라이브러리를 활용한 Adversarial Examples 생성 방법 연구 > 논문 검색첫페이지로 이동

청소년과학창의연구(학술지)

게재 논문 검색

오픈소스 라이브러리를 활용한 Adversarial Examples 생성 방법 연구

페이지 정보

  • 연번 5-12 
  • 제목(국문) 오픈소스 라이브러리를 활용한 Adversarial Examples 생성 방법 연구 
  • 제목(영문) Research on Generation of Adversarial Examples using Open Source Library 
  • 학술지명 청소년과학창의연구 
  • 호수 Vol.5 
  • 발간일 2020-01-31 
  • 저자 김서연,류완철,안태영,김원준 
  • 분야 정보 
  • 페이지 구간 pp.245-264 
  • 총 페이지 수 19 
  • 키워드(국문) 심층 신경망,보안,오픈소스 라이브러리,적대적 공격,머신 러닝 
  • 키워드(영문) Deep Neural Network, Security, Open-source Library, Adversarial Attack, Machine Learning 
  • 초록(국문)
    최근 심층 신경망(Deep Neural Network) 모델이 사람의 눈에 보이지 않는 섭동을 추가해 모델의 오분류를 유도하는
    Adversarial attack에 취약함이 밝혀지면서 이와 관련된 다양한 연구가 이루어지고 있다. 이러한 Adversarial attack은 심층
    신경망 기반 자율 자동차 및 보안 응용에 큰 문제를 일으킬 수 있음에도 불구하고 현재 Adversarial attack 시뮬레이터는 연구
    관점의 검증을 위한 형태로만 제공되고 있고 서비스 관점의 시뮬레이터는 전무한 실정이다. 따라서,본 과제에서는 머신 러닝
    프레임워크 ‘Tensorflow’와 오픈 소스 라이브러리‘eleverhans’를 활용하여 다양한 Adversarial attack 기법을 모듈 단위로 개발
    한 후 시각화하여 사용자가 공격 전후의 이미지를 비교할 수 있는 시물레이터를 개발하고자 하였다. 현 단계에서 Adversarial
    attack 시물레이터는 손 글씨 dataset인 MNIST dataset을 이용하여 심층 신경망 모델을 학습하고, 초기 Adversarial attack
    모델인 Fast Gradient Sign Method(FGSM)를 모듈화하여 심층 신경망 모델을 공격하는 형태로 구현하였다. 구현 후에도 FGSM
    뿐만이 아닌,Jacobian-based Saliency Map Attack(JSMA) 등과 같은 모델 또한 모듈화 한 후 추가하여 사용자로써 하여금
    공격 기법을 선택할 수 있도록 하였다. 또한,MNIST dataset에 속한 파일을 입력하면 공격 후 이미지를 저장 한 후 공격 과정에서
    발생한 노이즈를 따로 저장하도록 하여 원본,공격,섭동 이미지의 출력을 통해 사용자가 공격의 영향을 쉽게 확인할 수 있도록
    하였다.
  • 초록(영문)
    A variety of studies have been conducted recently as the Deep Neural Network models have been found to be
    vulnerable to dversarial attacks that induce misclassification of models by adding invisible perturbations. Although
    such an Adversarial attack can cause a big problem in the deep neural network-based autonomous vehicle and
    security applications, the Adversarial attack simulator is currently provided only for the verification of the research
    perspective, and there are no simulators in the service perspective. Therefore, in this research, we wanted to develop
    a simulator that allows users to compare images before and after an attack by developing and visualizing various
    Adversarial attack techniques with a form of a module using the machine learning framework *Tensorflowand
    the open-source library'cleverhans’. For now, we implemented an Adversarial attack simulator to learn the Deep
    Neural Network model using MNIST, the handwritten digit dataset, attack Deep Neural Network model using
    modularized Fast Gradient Sign Method(FGSM) model. After implementation, we also added modularized models
    such as Jacobian-based Saliency Map Attack(JSMA), which allows users to choose which attack techniques they
    want to use. Furthermore, if a file belonging to the MNIST database is entered, noise generated during the attack
    is stored separately after the attack, so that the output of the original, attack and perturbation images can be
    easily verified by the user.
목록