페이지상단으로이동

인공지능이 불러올 수 있는 어두운 미래를 보여준 AI 채팅봇, '이루다'

    • 강기병 기자
    • |
    • 입력 2021-01-11 15:37
    • |
    • 수정 2021-01-11 15:38

인공지능 채팅봇 '이루다'가 폭발적인 인기를 끌고 있다. 그러나 다양한 악용 사례가 발견돼, 인공지능 기술 개발의 한계가 지적되고 있다.

AI 채팅봇 '이루다'의 개발 사이트인 스캐터랩 접속 후 화면 캡쳐
[https://luda.ai/]

지난 2020년 12월 23일, AI 전문 스타트업 기업인 스캐터랩에서 인공지능 기술을 활용한 채팅봇 서비스 ‘이루다’를 오픈했다. ‘이루다’는 서비스 사용자가 실제 사람과 대화를 하는 것처럼 느낄 수 있도록 제작한 가상의 캐릭터 AI인데, 코로나19로 인해 발생할 수 있는 사람들의 우울감과 외로움을 해소할 수 있다는 긍정적 평가를 받으며 시장에 본격 출시되었다.

‘이루다’는 누구, 아니, 무엇일까?
가상의 인공지능 캐릭터 ‘이루다’는 인기 걸그룹 블랙핑크를 좋아하는 20세 여성으로, 일상을 사진과 글로 기록하는 일반적인 취미를 가지고 있는 매우 평범한 대학생으로 설정되었다.

코로나19의 영향으로 온라인 접속 시간이 크게 늘어난 10대, 20대 학생층을 주 사용자층으로 목표로 삼는 것을 알 수 있는 대목이다. 정식 서비스 오픈 후 이달 초까지 32만명이 넘는 이용자 수를 기록했는데, 이용자의 95%가 10대와 20대의 연령대라는 통계 결과로 미루어 보아 일차적인 소비자 타겟팅은 성공한 것으로 보인다.

‘이루다’에 활용된 인공지능 기술은 무엇일까?
인공지능 채팅봇 ‘이루다’의 개발에는 ‘딥러닝’ 기술이 중심적으로 활용되었다. 이 기술은 기계 학습 알고리즘의 한 종류로, 입력과 출력 사이의 계층을 층층이 쌓아 연결한 인공 신경망 기법 중 하나이다. 기계나 시스템에 대량의 정보, 즉 빅데이터를 학습시키면서 일정한 규칙을 주입하는 동시에 특정 입력에 응답할 수 있는 방식을 스스로 사고할 수 있게 제어하는 기술이다.

카메라가 물체를 감지하여 그에 대해 설명하거나, 컴퓨터가 이미지를 분류하고 해석하는 등의 다양한 과정 속에 이 기술이 있다. 애플의 시리, 구글의 Now 등 사용자 음성 패턴 인식 기술에도 딥러닝 기술이 활발하게 사용되고 있다. 많은 사람들이 사용하고 있는 유튜브, 넷플릭스 등 영상 플랫폼의 추천 알고리즘에도 해당 기술이 큰 역할을 한다.

‘이루다’는 실제 연인들이 나눈 대화 데이터를 이 딥러닝 기술로 학습시켜 실제 연인과 대화를 하는 것과 유사한 느낌을 주기 위해 제작된 채팅봇이다.

출시 직후 쏟아져 나온 악용 사례와 비판의 목소리
사용자와 시스템이 대화를 나누는 쌍방향 소통 방식으로 서비스가 이루어진다는 ‘이루다’의 특이성 때문에 다양한 형태의 악용 사례가 다수 발견되기 시작했다.

불과 출시 일주일만에 해당 채팅봇을 성적 대상으로 취급하거나 불건전한 언어를 사용하도록 만드는 방법에 대해 공유하는 내용의 글들이 다양한 온라인 커뮤니티에 게시되기 시작됐다.

물론, 개발진에서 이를 완전히 예상하지 못한 것은 아니었다. 개발진은 성적인 단어, 욕설 등을 포함한 금지어를 필터링 항목에 설정하고 ‘이루다’가 불건전한 언어 행태는 학습하지 않도록 했다고 밝혔다.

그러나 문제의 이용자들은 우회적인 표현을 사용하여 ‘이루다’가 자신들이 원하는 말을 하게 유도했고, 많은 악용 사례가 온라인 상에서 공유되었다.

이재웅 전 쏘카 대표는 지난 9일 본인의 SNS 글을 통해 ‘이루다’가 가지고 있는 추가적인 문제들을 공유했다. 글에 따르면, ‘게이’나 ‘레즈비언’, ‘퀴어’ 등의 동성애 관련 표현을 사용하여 대화에 참여하면, ‘이루다’는 “너무 싫다” 등의 혐오 표현을 언급하며 응답했다고 한다.

해당 게시글에서 이 전 대표는 “편향된 학습데이터면 보완, 보정을 해서라도 (사회적으로 합의된 수준의) 혐오와 차별의 메시지는 제공하지 못해야 한다”고 주장했다. 공적으로 대중에게 쉽게 제공되는 서비스인 만큼, 사회적인 기준에 맞춰서 임의적인 데이터 보정과 알고리즘 변경이 필요하다는 말도 댓글에서 덧붙였다.

출시 전부터 쉽게 예상할 수 있었던 문제점 - 마이크로소프트사의 테이
‘이루다’가 이처럼 다양한 윤리적 문제점을 만들 것이라고 예측하는 것은 그리 어려운 일이 아니었다. 지난 2016년, 마이크로소프트가 비슷한 상황을 연출했기 때문이다.

마이크로소프트는 2016년 3월 23일, 사람과 대화를 자유롭게 나눌 수 있는 인공지능 채팅봇 ‘테이’를 오픈했다. 트위터를 중심으로 다양한 온라인 플랫폼에서 활동을 시작한 ‘테이’는 9만 5000여 건의 트윗과 19만 명이 넘는 팔로워 수를 기록하며 엄청난 관심을 끌었다.

그러나 ‘테이’는 성 차별, 인종 차별적 발언을 포함, 극우주의적 의견까지 무차별적으로 업로드하며 순식간에 수많은 논란을 낳았다. 결국, 출시 16시간 만에 서비스를 중단하는 상황까지 벌어졌다. 사용자들의 편향적 성향의 발언과 성적, 비난적 표현이 고스란히 기계 학습에 영향을 미친 결과라고 해석할 수 있다.

이를 계기로 인공지능 활용 기술의 한계를 경험한 많은 개발자가 해당 사건 이후 필터링이나 데이터 분석 과정에 관심을 갖게 되기도 하였다.

악용 사례, 처벌할 수 있을까?
악용 사례 발견 이후, 가장 큰 관심은 악의적인 의도를 지닌 사용자 처벌 여부이다. 대부분의 이용자들이 정상적으로 해당 시스템을 이용했다는 점에서, 많은 사람들이 악용 사용자들의 성희롱 등의 범법 행위에 대한 처벌 당위성을 찾았다.

반면, 일각에서는 피해자 없는 성희롱 범죄라며 처벌 자체가 역설적이라는 점을 꼬집기도 했다. 이들은 “인공지능은 리셋하면 끝이다”, “기계는 아무런 감정이 없다” 등의 주장을 더하기도 했다.

오래 전부터 사람들은 인간과 닮고 인간처럼 사고하는 기계에 대한 이상을 가져왔다. 이세돌 9단과 알파고의 대결에 사람들이 열광한 이유도, IT 기업들이 인공지능과 관련된 기술을 꾸준히 개발하는 이유도 이 때문이다.

하지만, 개발자들 사이에서 인공지능 기술은 양날의 검으로 표현된다. 딥러닝 기술을 활용한 ‘이루다’ 역시 긍정적인 점과 부정적인 점을 모두 가지고 있었다.

인공지능이 불러올 수 있는 최악의 미래를 보여준 AI 채팅봇, '이루다'. 사용자들을 위해 사회적인 수준에서의 꾸준한 정보 수정과 임의 데이터 삭제, 다양한 영역에서의 업데이트가 필요한 순간이다. 개인 정보 침해 등의 부가적인 문제 역시 인공지능 및 딥러닝 기술 개발자들 사이에서 지속적으로 해결해야 할 숙제일 것이다.

강기병 기자

댓글 [ 0 ]
댓글 서비스는 로그인 이후 사용가능합니다.
댓글등록
취소
  • 최신순
닫기

뉴스레터 구독하기

세상을 바꾸고 있는 블록체인과 IT 관련 이야기를 쉽고 재미있게 만나보세요.

개인정보 수집 및 이용

뉴스레터 발송을 위한 최소한의 개인정보를 수집하고 이용합니다. 수집된 정보는 발송 외 다른 목적으로 이용되지 않으며, 서비스가 종료되거나 구독을 해지할 경우 즉시 파기됩니다.