UPDATED   2020. 10. 21(수) 15:14
페이지상단으로이동

사이버 보안 전문가들 “해커들, AI 악용하여 해킹 가능”

    • 고다솔 기자
    • |
    • 입력 2020-10-08 16:43
    • |
    • 수정 2020-10-08 16:43

21세기는 기술이 없는 세상을 상상할 수 없는 시대이다. 다양한 기술이 우리의 일상 속에서 빈번하게 활용되기 때문이다. 그러나 기술의 발전과 함께 사이버 보안이 위협을 받고 있다. 4차 산업혁명의 핵심인 인공지능도 예외는 아니다.

해외 테크 전문 매체 테크리퍼블릭이 사이버 보안 전문가들의 발언을 인용, 해킹 공격 과정에서 해커들의 인공지능 악용 방법 세 가지를 소개했다.

1. 데이터 공격(Data poisoning)
미국 표준기술연구소의 정보기술 연구소 수석 연구원 엘햄 타바시(Elham Tabassi)는 해커들이 간혹 머신러닝 모델 훈련에 활용되는 데이터를 공격 대상으로 삼는 경우가 있다고 말한다.

데이터 공격은 훈련 데이터셋을 조작해, 훈련된 모델의 예상 행동을 제어하는 공격 행위이다. 해커들은 데이터 공격 과정에서 백도어를 악용해 인공지능 모델 설계자가 알지 못하는 알고리즘을 몰래 삽입한다. 이후, 머신러닝 시스템이 특정 데이터를 잘못 분류하도록 한다.

어느 한 연구 결과에 따르면, 트레이닝된 데이터 중 3%만 해킹 공격을 당해도 업무 수행 정확도가 11% 감소한다.

타바시는 데이터 공격이 특정 한 모델에서 다른 모델로 이관될 수 있다고 설명한다. 이를 근거로 업계가 데이터 품질의 안전성을 보장할 수 있는 표준과 가이드라인을 제정해야 한다고 주장했다. 동시에 미국 표준기술연구소가 인공지능의 신뢰성을 위해 국가 차원의 가이드라인을 제작 중이라고 밝혔다.

2. 생성적 대립 신경망(GNA)
GNA는 확률 분포를 학습하는 생성 모델과 서로 다른 집합을 구분하는 판별 모델이라는 대립되는 두 개의 시스템으로 구성됐다. 생성 모델은 가짜 예제를 만들어 판별 모델을 최대한 속이도록, 판별모델은 생성모델이 만든 가짜 예제와 실제 예제를 정확히 구분하도록 훈련받는다. 이러한 과정을 거쳐, 두 개의 대립되는 시스템이 함께 신뢰할 수 있는 콘텐츠를 생성한다.

디지털 가디언의 최고 정보보안 책임자인 팀 반도스(Tim Bandos)는 해커들이 GAN를 이용해, 민감한 데이터를 순식간에 추출해낼 수 있다고 설명한다. 이때, 해커들은 트래픽 패턴을 흉내 내고는 해킹 공격을 감지하지 못하도록 시스템의 주의를 분산시킨다.

그는 "GNA를 악용한 해킹 공격에서 민감 데이터가 노출되는 시간은 30분~40분이다. 해커들이 인공지능과 머신러닝을 한차례 공격하면, 이후 인공지능이 자동으로 해킹 공격을 개시할 수 있다. 따라서 사이버 보안에 활용되는 인공지능 알고리즘은 수시로 훈련시켜야 한다"라고 말한다.

GNA는 민감 정보 유출 외에도 패스워드 조작, 멀웨어 감지 방해, 안면 인식 방해 과정에도 악용되기 쉽다.

3. 봇 조작
미국 소프트웨어 기업 VM웨어(VMware)의 자회사 카본블랙(Carbon Black) 소속 수석 사이버 보안 전문가인 패넬리스트 그렉 포스(Panelist Greg Foss)는 인공지능 알고리즘이 결정을 내리는 도중에 잘못된 결정을 내리도록 조작될 수 있다고 주장한다.

그는 “해커들이 인공지능 알고리즘의 의사 결정 모델을 이해하고 있다면 이를 악용하기가 쉽다”라고 설명한다.

최근 발생한 봇이 운영하는 암호화폐 거래 시스템 해킹이 대표적인 사례이다. 포스는 "해커들은 거래 과정에 개입해, 봇이 거래를 처리하는 방식을 계산한다. 그리고는 봇을 이용해 알고리즘을 조작하는 방식으로 해킹한다"고 전했다.

고다솔 기자

댓글 [ 0 ]
댓글 서비스는 로그인 이후 사용가능합니다.
댓글등록
취소
  • 최신순
닫기

뉴스레터 구독하기

세상을 바꾸고 있는 블록체인과 IT 관련 이야기를 쉽고 재미있게 만나보세요.

개인정보 수집 및 이용

뉴스레터 발송을 위한 최소한의 개인정보를 수집하고 이용합니다. 수집된 정보는 발송 외 다른 목적으로 이용되지 않으며, 서비스가 종료되거나 구독을 해지할 경우 즉시 파기됩니다.