상세 컨텐츠

본문 제목

무더기 ‘딥페이크’ 영상 속 ‘진짜 정보’ 가릴 수 있을까?

악플혐오 VS 선플

by 코끼리코라우 2020. 12. 25. 00:43

본문

반응형

무더기 ‘딥페이크’ 영상 속 ‘진짜 정보’ 가릴 수 있을까?

- 비판적 수용만은 해답이 될 수 없어, 제도적·사회적 방안 마련되어야


대학생 선플 기자단 김소이


지난달 23일, 트위터는 미국 선거를 앞두고 주요 기능인 ‘리트윗’에 대대적인 변화를 주었다. 전 세계 트위터에서 리트윗 버튼을 누를 시에 자동으로 ‘트윗 인용하기’ 기능으로 넘어가도록 변경한 것이다. 

리트윗은 다른 사람의 글을 단순히 다시 올리는 기능으로, 사용자가 자신의 팔로워들에게 해당 정보를 또다시 노출해 짧은 순간에 많은 사람에게 퍼지기 쉽다. 이렇게 한 트윗의 영향을 증폭시키는 리트윗의 기능을 한시적으로 제한하였다. 

이는 미국 대선과 관련하여 확인을 거치지 않은 정보나 가짜 뉴스가 쉽게 증폭되어 바이럴 하게 되는 것을 막기 위함으로, 단순한 트윗 전달보다도 자신의 생각, 반응, 관점 등을 대화에 추가하길 바란다는 것이 트위터의 입장이다. 

이외에도 잘못된 정보에 경고 라벨을 부착하는 등 트위터는 유저 간의 정치적 갈등으로 네트워크가 혐오의 장으로 병들지 않고, 거짓 정보가 쉽게 양산되는 곳으로 변질되는 것을 막고자 하였다. 



▲ 조 바이든의 얼굴을 합성한 영상. 한국에서는 공식 계정인 것처럼 알려져 네티즌들이 혼란에 빠지기도 했다. / 틱톡 @jojobiden46

하지만 280자의 트윗 속에 짧게 담기는 글보다도 현 소셜 네트워크 서비스는 영상 정보에 더욱 취약하다. 틱톡, 스낵비디오, 유튜브 등 영상물은 사람들의 뇌리에 이미지로 더 강하게 남으며, 글로 된 정보보다도 그 정확성을 확인하는 방법이 쉽지 않다. 

특히 딥페이크(DeepFake), 즉 인공지능을 통해 기존 영상물에 다른 이미지를 자연스럽게 덧입히는 기술이 날로 발전하면서 이를 악용하는 사례가 늘고 있다. 미국 대선 역시도 여러 소셜 미디어들이 딥페이크 영상에 대한 전쟁을 치뤘다. 

페이스북을 시작으로 유튜브, 트위터 등이 고도의 기술로 조작된 딥페이크 동영상이 올라올 경우 앞으로 이를 삭제하거나 경고 딱지를 붙여 제재하겠다는 방침을 밝혔다. 다른 사람의 동영상에 대통령 후보의 얼굴을 합성해 실제로 하지 않은 발언이나 행동을 있던 일처럼 꾸며 유표하는 행위가 선거 결과에 영향을 끼칠 수도 있다는 우려 때문이었다. 

하지만 풍자나 패러디, 혹은 단순 생략 등은 범위에 포함되지 않기 때문에 그 경계가 모호하여 여전히 진위가 밝혀지지 않은 채 수많은 영상이 소셜 미디어에서 돌아다니고 있다. 

국내에서도 조 바이든 후보가 직접 촬영한 것처럼 보이는 틱톡 영상이 퍼지면서 네티즌들에게 작은 충격을 안겨 주기도 했는데 이는 곧 조작된 영상으로 확인되었다. 

미국의 반부패를 위해 활동하는 비영리 비정당 단체 ‘RepresentUs’는 “이 영상은 사실이 아니지만 민주주의는 실제로 위협에 놓였다.”는 설명과 함께 북한의 김정은 위원장이 얼마나 쉽게 민주주의가 붕괴할 수 있는가에 대해 이야기하는 짧은 딥페이크 영상을 게시했다. 이는 김정은 위원장을 내세워 영상의 호기심을 이끌고, 이를 이용해 사람들에게 선거의 중요성을 일깨우기 위해 제작되었다


 미국의 비영리단체 RepresentUS가 업로드한 영상. 이외에도 블라디미르 푸틴 등 ‘독재자들’의 얼굴을 이용한 영상 시리즈로 민주주의에 대한 경각심을 일으키고자 제작되었다. /유튜브 https://www.youtube.com/watch?v=ERQlaJ_czHU


딥페이크 기술을 취약성은 어느 사람이든 어느 영상의 주인공으로 조작될 수 있다는 점이다. 민간 딥페이크 조사 업체 센시티는 한 텔레그램 대화방에서는 지난해 7월부터 1년간 약 10만4852명의 여성 사진이 ‘딥페이크 봇’을 이용하여 나체 사진으로 합성됐다는 내용의 보고서를 발표했다. 

뿐만 아니라 역시 n번방 수사로 주춤하던 국내 불법 딥페이크물 유통이 다시 활개를 치며 여성 아이돌의 합성 사진, 영상, 지인의 얼굴을 합성한 딥페이크물들을 만들어 준다는 글들이 다시금 적발되고 있다. 

텔레그램처럼 폐쇄적인 SNS 이외에도, 누구나 접근할 수 있는 트위터 등 소셜 미디어에서도 이러한 영상이 업로드되며 불안을 낳고 있다. 

글로 된 정보처럼 검색이 쉽지 않고, 일반인이 진위를 가리기 힘들 정도로 고도화된 인공지능 기술로 소셜 미디어는 이전보다도 더 넓은 범위의 매체들 사이에서 가짜 정보를 가려내어야 하는 역할을 짊어지게 되었다. 실제로 마이크로소프트, 구글, 페이스북 등 다수의 IT 기업과 연구기관이 딥페이크에 대항하기 위한 기술을 연구하여 상용 가능한 해결책을 찾기 위한 개발을 이어나가고 있으며, 9월 MS는 ‘신뢰 점수’를 계산해 딥페이크가 사용됐는지 알 수 있는 ‘마이크소프트 비디오 어센터케이터’(Microsoft Video Authenticator)를 공개했다. 

국내에서는 카이스트 연구진이 세계에서 두 번째로 디지털 사진의 변형 여부를 탐지할 수 있는 소프트웨어 ‘카이캐치(KAICATCH)’를 개발하기도 하였다. 


이처럼 딥페이크 방지 기술 개발이 속도를 붙이고 있지만, 일부 전문가들은 딥페이크가 계속해서 AI에 의해 정보를 학습하기 때문에 탐지 기술을 능가할 수밖에 없다는 우려를 표하기도 한다. 

결국, 빠르게 발전하고 다양화되는 기술의 악용을 다른 기술로 막을 수는 없기 때문에 이는 제도적 차원에서 처벌을 강화하여 제작 자체를 방지해야 한다는 목소리이다. 소셜 미디어 사용자 역시도 조작된 영상 정보을 비판적으로 수용하는 역할이 필요하다. 

무작정 확인되지 않는 클립을 실어나르기보다는 진위를 파악하려고 하는 자세를 가져야 하며, 딥페이크 기술을 이용한 불법 영상을 업로드하는 계정들의 발견 시에 신고하며 더 깨끗한 소셜 미디어를 위해 참여하여 자정 작용을 끌어낼 수도 있다. 

출처를 잃었을 경우 다시 추적하기 어려운 영상의 특성상, 정확한 출처를 표시한 공유도 영상의 진실성을 잃지 않는 하나의 방법이다. 하지만 가장 우려되는 반작용은 딥페이크로 조작된 영상들로 인해 신뢰를 잃게 되는 실제 영상들이다. 

여태 경찰의 무력 진압 장면을 촬영한 영상들이 사람들에게 급속도로 전달되어 공권력의 거짓 진술을 밝혀낸 여러 사례가 있었다. 또는 개인 간에도 폭력, 폭언 등을 공론화할 때 있어서 영상이 그 증거로 진실을 드러내는 도구로 사용되기도 하였다. 

하지만 갈수록 기술을 악용하여 조작된 영상들이 늘어나며 SNS 전반에 공유되는 영상에 대한 의심을 높이거나, 혹은 사용자들이 이에 아예 무감해져 어떤 거짓 영상이든 쉽게 받아들이게 하고 있다. 말레이시아의 한 정치인이 ‘딥페이크 기술을 통해 조작된 영상이다’라고 둘러댄 사례는 어쩌면 시작에 불과할지도 모른다. 


개인의 목소리를 더 많은 이에게 닿게 할 수 있는 SNS의 순기능, 그리고 영상 매체가 주었던 현장감과 정확성이 기술의 발전을 통해서 오히려 붕괴하고 있는 시점이다. 딥페이크는 안타깝게도 포르노물에서 가장 활발하게 이용되고 있지만, 영화 등 엔터테인먼트 산업에서는 영상 재현에 있어서 크게 주목받는 분야이다. 

인공지능이 자동으로 더빙을 하거나, 게임 캐릭터가 인간의 모습을 완벽하게 복제할 수 있고, 이제는 볼 수 없는 배우들을 기술로 재현하여 관객들에게 감동을 줄 수도 있다. 윌 스미스 주연의 영화 '제미니맨'에서는 ‘주니어’라는 캐릭터를 완전히 시각 효과로만 구현해 내어 영화계의 새로운 지평을 열기도 하였다. 

그 외에도 딥페이크는 원격회의나 증강현실에서 사용자 경험을 향상할 수 있는 주요 기술이기도 하다. 걷잡을 수 없는 속도로 기술들은 발전하고 있으며 이 기술들의 가치는 다시 이를 사용하는 사람들에게 달려 있다. 

사람들을 의도적으로 속이는 가짜 영상이나 실제 인물을 바탕으로 제작되는 음란물은 기술이 주어서는 안 되는 혜택이다. ‘무한한 가능성’을 가진 인공지능 기술이 진정으로 사람들에게 도움을 주기 위해서는 악용 사례를 처벌하고, 이를 소비하지 않는 문화를 만들어 무한한 악용의 가능성을 먼저 제해야 할 것이다.

반응형

관련글 더보기

댓글 영역