경제

“이 얼굴이 위조?” 화상회의까지 했는데 ‘가짜 임원’한테 350억 사기 당해 [머니뭐니]

금융소비자보호재단 ‘AI 신종 사기 동향’ 보고서

작년 사기 범죄 42만건…美 인터넷 범죄 33%↑

문자부터 이미지·영상·음성 등 신종 수법 횡행

“AI 범죄 사각지대 존재…별도 규정 만들어야”

AI(인공지능) 기술이 고도화하면서 이를 활용한 온라인 사기 수법들도 갈수록 정교해지고 있다. 현행법상 AI 사기 범죄에 대한 사후적 처벌 사각지대가 생길 수 있어 별도의 처벌 규정을 신설해야 한다는 지적이 나온다. [챗GPT를 사용해 제작]
AI(인공지능) 기술이 고도화하면서 이를 활용한 온라인 사기 수법들도 갈수록 정교해지고 있다. 현행법상 AI 사기 범죄에 대한 사후적 처벌 사각지대가 생길 수 있어 별도의 처벌 규정을 신설해야 한다는 지적이 나온다. [챗GPT를 사용해 제작]

[헤럴드경제=김벼리 기자] # 1. 지난 2023년 홍콩의 한 다국적 기업에서 근무하는 A씨는 온라인 화상 회의에서 본사 임원의 지시에 따라 알려준 계좌에 2500만 달러(약 345억원)를 송금했다. 하지만 알고 보니 해당 계좌는 사기범의 것이었다. 딥페이크(진짜처럼 보이는 가짜 영상) 영상을 활용해 본사 임원이 실시간으로 화상 회의에 참여하는 것처럼 속이고 사기를 친 것이다.

# 2. 독일에 본사가 있는 B회사의 영국 지사에서 근무하는 C씨는 대표이사의 목소리로 24만3000달러를 송금하라는 메시지를 받았다. 익숙한 목소리에 별다른 의심 없이 돈을 보냈지만, 알고 보니 사기범이 AI를 활용해 CEO 목소리를 복제해 꾸민 사기 행위였다.

AI(인공지능) 기술이 고도화하면서 이를 활용한 온라인 사기 수법들도 갈수록 정교해지고 있다. AI 사기 범죄가 현행법을 빠져나갈 수 있는 소지가 다분해 별도의 처벌 규정을 신설해야 한다는 지적이 나온다.

7일 한국금융소비자보호재단이 최근 발간한 ‘생성형 AI를 악용한 신종 사기 동향 분석’ 보고서에 따르면 최근 국내외에서 AI 기술이 피싱이나 로맨스스캠(연애 빙자 사기), 투자 등 사기 범죄 수단으로 빠르게 진화하면서 관련 피해도 급증하고 있다.

경찰청에 따르면 지난 2024년 기준 사기 범죄 발생 건수는 총 42만1421건으로 처음으로 40만 건을 넘겼다. 온라인을 통해 불특정 다수를 상대로 벌이는 사기인 ‘다중피해 사기’ 피해액도 올해 상반기 1조312억원이었다. 연긴 가준으로는 지난해(1조6870억원) 규모를 훌쩍 넘을 것으로 전망된다.

특히, 다중피해 사기의 대표적인 유형인 보이스피싱의 상반기 피해 금액이 역대 최고치인 6421억원을 기록했다.

미국 FBI(연방수사국)도 지난해 로맨스스캠 등 인터넷 범죄 피해액이 1년 새 33% 증가하며 160억 달러를 넘어섰다고 발표했다. 특히, AI가 사기에 이용되면서 SNS(사회관계망서비스)나 이메일을 활용한 사기가 각각 규모와 건수 기준으로 가장 큰 비중을 차지했다.

보고서에 따르면 최근의 생성형 AI 기반 범죄는 문자뿐만 아니라 이미지, 영상, 음성 등 다양한 콘텐츠를 생성하는 방향으로 진화하고 있다.

지인이나 가족의 음성을 모방해 긴급 상황을 연출하고 금전을 요구하는 신종 보이스피싱 사기가 대표적이다. 음성 복제 AI는 SNS나 유튜브 등에 올라온 목소리를 복제해 새로운 목소리를 생성할 수 있다. 가족의 목소리를 흉내 내 납치나 사고 등 긴급한 상황을 꾸며 송금을 요구하는 식이다.

더 나아가 ‘딥페이크 영상’을 활용한 사칭 사기도 확산하고 있다. 수사기관, 공공기관, 금융회사 직원을 사칭한 영상을 거짓으로 만들어 피해자에게 접근하는 식이다. 기업 임원진을 딥페이크 기술로 모방해 실시간으로 가상 회의에 참석해 사기범 계좌로 송금을 유도하는 사례도 있다.

이미지 생성 AI를 활용해 문서·신분증·계좌정보 등의 시각 자료를 조작해 피해자의 신뢰를 유도하는 사기 유형도 있다. 사기범들은 주민등록증, 운전면허증, 여권 등 정교하게 만든 위조 신분증 이미지를 비대면 인증, 계좌 개설, 대출 신청 등 범죄에 활용한다. 이를 통해 허위 기부를 유도하거나 조작된 이미지를 통한 협박 등 범죄도 늘고 있다.

마지막으로 NLP(자연어처리) 기술을 활용해 문자 대화, 이메일, 공문서, 계약서 등 문서를 위조하거나 조작하는 사례도 많다. 공공기관을 사칭한 안내문을 거짓으로 만들거나, 금융회사를 사칭한 챗봇을 통해 고객의 개인정보를 요구하는 식이다. 외국인 신분의 가짜 인물이 생성형 AI로 만든 대화 문장, 자기소개글, 상황 시나리오 등을 활용해 장기간 신뢰를 구축한 뒤 돈을 요구하는 로맨스 스캠 범죄도 진화하고 있다.

상황이 이렇지만 현재 국내에서는 AI를 이용한 범죄에 대한 사후적 규제 장치가 미흡한 실정이다. 지난해 12월 국회에서는 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)’이 통과됐다. AI 산업 육성과 동시에 위험을 예방하기 위한 사전적 규제가 담긴 법률이다.

다만 AI를 이용한 구체적 범죄나 처벌에 대해서는 ‘형법’ 등 기존 법률이 적용되는데, 내용이 불분명해 적용 예측이 어렵거나 범위가 좁아 적용되기 어렵다는 지적이 나온다. AI를 기반으로 새로 나타난 위협이나 책임 소재가 불분명한 경우 기존 법으로는 규제가 어렵다는 한계도 있다.

이에 대한 대안으로 생성형 콘텐츠의 사전·사후 모니터링 체계 도입, AI를 활용한 허위·사칭 생성물에 대한 별도 처벌 규정 신설, 플랫폼 기업의 보안책임 강화와 국제 공조 기반의 규제 체계 마련 등이 필요하다는 주장이 나온다.

금융소비자보호재단 관계자는 “소비자들도 AI 사기 피해를 본 경우 바로 신고를 하고, 최신 사기 사례들을 인지해야 한다”며 “AI 사기를 당했거나 노출됐을 때 주변에 내용을 공유하고 예상치 못한 연락이나 지나치게 유리한 제안은 거절해야 한다”고 강조했다. 이어 “신뢰할 수 없는 상대에게 디지털 기기의 제어권을 넘겨주면 안 된다”고도 덧붙였다.

kimstar@heraldcorp.com

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다