2030 세대가 딥페이크(인공지능(AI) 기반 이미지 합성)로 제작된 콘텐츠가 가짜인 것을 알고 보더라도 진짜처럼 느낀다는 연구 결과가 나왔다.
강진숙 중앙대 미디어커뮤니케이션학과 교수와 박사 수료생인 김지현 씨가 31일 한국방송학보에 기고한 논문 ‘2030 세대 이용자의 딥페이크 기술 경험에 대한 사례 연구’를 보면 연구 참여자들은 딥페이크 이미지와 영상이 실제와 구별하기 어려운 콘텐츠로 제작돼 진위성에 혼란을 가져왔다고 입을 모았다.
연구 참여자들은 소셜 미디어를 통해 딥페이크 콘텐츠를 접했다. 영화 ‘원더 우먼’의 주연을 맡은 이스라엘 배우 갤 가돗의 얼굴과 포르노 배우의 몸을 합성한 음란물과 조 바이든 미국 대통령이 트랜스젠더를 모욕하는 동영상, AI로 만든 젊은 남성 모델을 활용한 칠성사이다 광고 등이다.
한 참여자는 “한 정치인이 막말하는 딥페이크 동영상을 본 적이 있는데 저도 모르게 진짜라고 생각했다. 너무 정교하게 만들어져 진짜인지, 가짜인지 헷갈리더라”라고 말했다. 다른 참여자는 “(누군가) 인스타그램에서 어떤 남자의 벗은 몸에 내 얼굴을 합성한 사진을 보냈다. 내 폴로어들에게 보낸다면서 돈을 요구했다”고 말했다.
이들은 딥페이크 콘텐츠임을 인지하면서도 진짜와 가짜를 구분하지 않게 되는 태도가 문제라고 우려했다. 콘텐츠 소비자에게 딥페이크임을 주지시키기 위해 출처나 영상의 목적, 용도를 명확히 하는 것이 중요하다고도 봤다.
연구진은 딥페이크 기술 경험은 대부분 오락과 유희적 체험에서 시작되지만 이를 이용하며 정치적 각성이나 의식화라 나아갈 수 있다고 지적했다. 이들은 “허위 정보와 범죄, 상업적 유린 등으로 딥페이크로 인한 혼란을 경험한 대중이 대항할 힘을 기르는 것이 중요하다”고 말했다.
<저작권자 ⓒ 매일한국, 무단 전재 및 재배포 금지>
박진영 기자 다른기사보기