본문 바로가기
정책 정보/시사 정보

보이스 피싱에 AI로 위조한 가족 목소리 이용

by 낭호 2023. 3. 7.

AI가 엄청난 속도로 발전해 나가고 있습니다. 최근 이슈가 되고 있는 Chat GPT는 빙산의 일각에 불과할 정도입니다. 이런 놀라운 발전에 감탄하면서도 사람들의 신경을 쓰이게 만드는 것이 바로 AI의 어두운 면입니다. 오늘 다룰 AI로 위조한 가족 목소리를 이용한 보이스 피싱이 그 한 예입니다.

이미 많은 영화나 소설 등에서 자아를 갖고 사람을 지배하려는 AI의 모습을 봐왔기 때문일 것입니다. AI는 사람의 말, 언어, 행동을 모방하며 학습해 나가는데, 거기서 드러나는 사람들의 마음, 욕망, 행동패턴까지 학습하지 못하리라는 보장은 없으니까요. 어린아이들이 주변 사람들과의 대화와 모방을 통해 점점 사회화되어 가는 것과 비슷한 개념입니다.

 

AI로 가족의 목소리를 위조해 보이스 피싱 사기에 활용

AI가 우려되는 점 중의 하나는 범죄의 수단으로 이용될 수 있다는 가능성이었는데, 역시나 바로 사건이 터져 나왔습니다. 보이스 피싱범이 AI를 이용해 자신의 목소리를 피해자 아들의 목소리와 똑같게 위조하여 피해자를 속여 돈을 갈취하는 일이 벌어졌습니다. 부모는 아들의 목소리와 똑같았기 때문에 의심을 하지 못했습니다.

범인은 자동응답 사서함에 녹음되어 있는 아들의 목소리를 사용했다고 합니다. 외국에서는 "지금 부재중이니, 메시지 남겨주세요"와 같은 말을 자신이 직접 녹음해 놓는 일이 많죠. 겨우 15초~30초 정도의 분량만으로도 쉽게 목소리를 복사해 낼 수 있었다고 합니다. AI의 힘이죠.

 

보이스피싱에 AI 동원…"가족 목소리 위조해 송금 요구" | 연합뉴스

(서울=연합뉴스) 오진송 기자 = 인공지능(AI) 기술로 가족이나 친척 등 가까운 지인의 목소리를 위조해 보이스피싱에 사용하는 신종 사기 기법이...

www.yna.co.kr

 

유튜브나 SNS 계정 주의

우리나라는 사서함에 자기 목소리를 남겨놓는 문화는 없지만, 범인 입장에서는 찾으려고 마음만 먹으면 사람 목소리는 쉽게 찾을 수 있습니다. 바로 SNS와 유튜브를 통해서죠. 그 매체들에는 수많은 음성들이 저장되어 있습니다. 범인들이 마음껏 이용할 수 있죠. 

심지어 가족들을 거의 다 공개하는 경우도 많습니다. 모두가 범죄의 타깃이 될 수 있습니다. 더 나아가 AI가 사람의 얼굴도 복사하지 못하라는 법 없습니다. 아들 얼굴로 영상통화가 와서 아들 목소리로 돈이 필요하다고 하는 상황이 발생할 수도 있습니다. 부모 입장에서는 속지 않기 힘든 상황이 펼쳐지는 것입니다. 

저는 부모님께 항상 말합니다. '일단 내가 전화로 돈을 부탁할 일은 전혀 없을 것이고, 혹시 그런 경우가 발생해도 그런 얘기는 반드시 찾아가서 직접 뵙고 말할 것이다. 그럼에도 만약 나에게서 전화가 온다면 전화를 끊고 나서 어떠한 행동도 하지 말고 그대로 나에게 다시 전화해서 확인할 것.'

 

AI의 부작용에 대한 경각심 가져야

모두가 AI의 놀라운 발전 속도에 감탄만 하고 있어서는 안 됩니다. 기술의 발전 속도에 발맞춰 이 기술의 부작용에 대한 예방 및 해결책과 같은 사회의 환경이 같이 조성되어야 합니다. 그렇지 않으면 결국 이것이 기술 발전의 발목을 잡게 될 것입니다.

가장 밝은 빛 바로 아래 가장 어두운 그림자가 놓여 있을 수 있다는 생각, 모두가 잊지 말아야 하겠습니다. 

댓글