
27일 방송된 SBS ‘그것이 알고싶다’에서는 인공지능의 발전으로 나타난 ‘딥페이크’ 기술의 현주소를 살펴보고, 이 기술을 악용한 범죄를 분석하고 그 예방책을 살펴봤다.
인공지능의 한 분야인 딥러닝(Deep learning)을 활용해, 사람의 얼굴이나 특정 부위를 합성한 가짜 동영상을 만들어내는 기술 ‘딥페이크(Deepfake)’. 최근, 세계적인 인기를 얻고 있는 K-POP 연예인들의 얼굴을 이용한 딥페이크 영상물이 만들어지고 있는데, 대부분 성 착취 동영상의 형태로 악용되고 있어 사회적으로 큰 이슈가 되고 있다. 제작진이 만난 제보자들 역시 이 딥페이크 기술에 자신들의 사진을 이용당한 피해자였다.
IT 산업은 물론 엔터테인먼트 산업까지 다양한 분야에 쓰이고 있는 인공지능 기술. 그중의 하나인 ‘딥페이크’는 이미 사망한 사람의 얼굴을 재현해 가족들을 위로하기도 하고, 과거의 추억을 소환해 새로운 감동을 만들어 내며, 신원 보호가 필요한 사람들을 위한 안전장치도 될 수 있는 등, 제대로만 쓰인다면 긍정적인 부분이 많은 기술이다. 그리고 앞으로 더 발전해, 실제와 거의 차이가 없는 정교한 동영상 제작도 가능할 것으로 보인다.
이 기술이 바꾸어 놓을 미래의 풍경은 어떤 모습일까? 전문가들은 인공지능 기술, ‘딥페이크’가 성착취 동영상 제작의 사례처럼 범죄에 악용될 경우, 이제는 보이는 것을 보이는 대로 믿을 수 없는, 가짜와 진짜를 구분하기 어려운, 치명적인 사회적 위험을 발생시킬 수 있다고 경고한다.
‘그것이 알고싶다‘ 제작진은 전문가들의 자문을 받아 ‘딥페이크’ 기술을 이용한 범죄 실험을 진행했다. 대상은 부모와 자녀. 자녀의 ‘딥페이크’ 영상을 받아본 부모님들은 과연 어떤 반응을 보였을까?
실험자들은 다른 사람이 촬영한 영상에 세 명의 얼굴 소스를 얹어 딥페이크로 합성했다. 병원에 입원한 것 처럼 딥페이크로 합성해 부모님에게 문자로 연락을 취하며 신용카드 정보를 요구했다.
부모님들은 의심을 하면서도 신용카드 사진을 보냈다. 한 부모님은 "아들이 아닌 것 같았지만 혹시 모르니 보냈다"라고 했다.
오윤성 교수는 "오히려 이런 것들이 알려짐으로 써 많은 피해자들이 모방범죄를 하는 것이 아니라 방어를 할수 있는 분위기 형성이 되어져야 한다"라고 말했다.
‘나’를 유명한 영화의 주인공이 되게 만들 수도 있고, 반대로 불법 성 착취 동영상의 주인공이 되게 만들기도 하는 양날의 검, ‘딥페이크’. 우리 현실에 성큼 다가온 이 ‘딥페이크’는 과연 천사의 기술이 될 것인가 악마의 기술이 될 것인가?
또한 ‘딥페이크’가 온전히 ‘사람을 위한’ 기술이 되게 하려면 우리는 무엇을 준비해야 하는지 고민해본다.

