SNS에 가족 영상·음성 공개 자제 필요…경찰, 신고로 신속 대응해야
납치 빙자 사기 9월까지 174건 발생…112 신고로 안전 확보 최우선
[피앤피뉴스=마성배 기자] 최근 외국에서는 딥페이크로 자녀의 모습을 합성한 가짜 영상을 부모에게 전송하고 자녀를 납치했다고 협박해 금전을 요구한 사례가 발생하면서, 국내에서도 비슷한 사기가 발생할 우려가 커지고 있다.
경찰청 국가수사본부는 AI 기반 딥페이크 기술을 이용한 전화금융사기에 주의를 당부했다.
딥페이크는 AI 기술을 활용해 특정 인물의 표정과 움직임까지 실제처럼 구현해 가짜 영상을 만드는 기술이다.
이번 외국 사례에서 피해자의 부모는 딸이 감금된 방 안에서 울면서 도움을 요청하는 영상을 받았고, 범인은 “딸을 살리고 싶다면 합의금을 보내라”는 협박 메시지와 함께 금전을 요구했다. 다행히도 사건은 피해자의 안전이 확인되며 해결되었으나, AI 기술의 범죄 활용이 얼마나 심각해질 수 있는지 보여준 사건이다.
이와 유사한 방식으로 악용될 수 있는 또 다른 AI 기술로는 ‘딥보이스’가 있다. 범인이 자녀의 목소리를 복제해 부모에게 전화해 납치를 가장하고 금전을 요구하거나 급한 상황을 연출해 송금을 유도할 수 있다. 이러한 사기 수법은 부모와 자녀 간 가족 관계라는 특성을 이용해 빠르게 송금을 하도록 심리적 압박을 가하는 것이 특징이다.
경찰청은 딥페이크 및 딥보이스 기술이 납치 빙자 사기에 악용될 수 있으므로 국민이 이를 충분히 숙지하고 경각심을 가져야 한다고 강조했다.
특히 SNS에 공개된 가족의 영상이나 사진, 음성 자료는 범죄의 표적이 될 수 있어 불특정 다수가 볼 수 있는 공개 설정을 자제하는 것이 필요하다. AI 기술의 고도화로 인해 전문가조차도 육안만으로 가짜와 진짜를 구별하기 어려운 만큼, 사전 예방이 중요하다.
이러한 전화금융사기에 대처하기 위해서는 즉시 경찰에 신고하는 것이 가장 중요하다.
올해 9월까지 발생한 납치 빙자 전화금융사기 건수는 174건에 이르며, 협박 전화가 걸려오면 일단 사기 가능성을 의심하고 112에 신고해 경찰의 신속한 조치를 받는 것이 필수적이다.
납치 빙자 사기는 협박과 두려움을 이용해 신고를 망설이게 하므로, 납치 여부를 불문하고 경찰에 연락하는 것이 가장 안전하다.
경찰은 납치 신고 접수 시 위치 파악 등 초동 조치를 최우선으로 하여, 피해자의 안전 확보는 물론 금전적 피해를 방지하기 위해 최선을 다한다. 협박 전화가 끊기지 않아 신고가 어려운 상황에서는 주변의 도움을 요청하거나 문자메시지로 112에 신고해 자녀의 안전을 확인하는 것도 하나의 대응 방법이다.
경찰청 마약조직범죄수사과장은 “AI 기술이 우리의 일상생활을 혁신적으로 변화시키는 반면, 범죄의 새로운 수단이 될 위험도 있다”며, “경찰은 AI 악용 범죄를 예방하기 위한 홍보 콘텐츠를 제작해 국내외로 확산하고, 국민의 안전을 지키기 위해 총력을 기울일 것”이라고 밝혔다.
피앤피뉴스 / 마성배 기자 gosiweek@gmail.com
[ⓒ 피앤피뉴스. 무단전재-재배포 금지]