가짜 영상 딥페이크, 혈액순환 변화로 잡아낸다

인공지능으로 조작한 가짜 영상물인 딥페이크(DeepFake) 기술은 악의적인 목적으로 사용될 수 있다. 그중에서도 가장 우려스러운 대목은 정치 왜곡이다. 

이 때문에 페이스북을 비롯한 소셜미디어 플랫폼들이 이런 가짜 동영상을 금지하고 있다, 회사들은 딥페이크를 감지할 수 있는 소프트웨어 개발에 공을 들이고 있지만 그리 간단치 않다.

빙엄턴대학(Binghamton University)과 인텔(Intel) 연구원이 공동으로 사람의 심장 박동으로 인물 영상이 실제인지 여부를 90% 이상 알아낼 수 있는 페이크캐처(FakeCatcher)라는 딥 러닝 시스템을 개발했다. 

연구 결과(논문명: FakeCatcher: Detection of Synthetic Portrait Videos using Biological Signals)는 지난 7월 ‘IEEE Transactions on Pattern Analysis and Machine Learning’에 실렸다. 

실제와 가짜 영상을 보여주는 여러 개 영상 스크린샷. [출처: IEEE Transactions on Pattern Analysis and Machine Learning]

논문에 따르면 사람들의 실제 영상에는 눈에 보이지 않는 생리적 신호가 담겨 있다는 점을 활용해 만든 소프트웨어를 기술하고 있다. 

특히 사람 얼굴 영상에는 혈액순환으로 맥박에서 발생하는 색채의 미묘한 변화가 감지해 분류한다. 이러한 기술은 포토플라이스모그래피(Pooplethysmography), 즉 줄여서 PPG라고 하는 기법을 기반으로 개발했다. 이를테면 신생아의 매우 민감한 피부에 아무것도 붙이지 않고도 감시할 수 있다.

딥 페이크(deep fake)는 혈액순환에 의한 색 변화도 포함됐지만, 생물학적 신호가 서로 다른 합성 안면 부분에 일관성 있게 존재하지 않는다. 얼굴 합성 내용에는 안정적인 PPG를 가진 프레임이 들어 있지 않다. 즉 맥박이 얼굴에 어떻게 나타나는지를 실제처럼 흉내 낼 수 없다는 뜻이다.

이러한 접근법이 가짜 영상을 밝혀내는 것뿐만 아니라 그것을 만들기 위해 어떤 소프트웨어를 사용했는지도 증명했다.

실제와 가짜 영상을 보여주는 여러 개 영상 스크린샷. [출처: arXiv]

연구팀은 아카이브(arXiv) 학술플랫폼에 8월 26일 새로운 연구 결과(How Do the Hearts of Deep Fakes Beat? Deep Fake Source Detection via Interpreting Residuals with Biological Signals)에서 영상이 진짜인지, 아니면 가짜 영상을 만드는 데 사용된 4가지 딥페이크 생성기(DeepFakes, Face2Face, FaceSwap, NeuralTex) 중 어떤 것을 사용되었는지 90% 이상 정확도로 구별할 수 있음을 보여주었다.

당분간은 이번 기술로 가짜 영상을 막을 수 있을 것이다. 하지만 또 언젠가는 이러한 생리학적 기반 검출 접근법을 능가할 수 있는 새로운 딥페이크 생성기가 나올 것이다. 기술은 그렇게 발전됐기 때문이다.

김들풀 기자 itnews@