상세 컨텐츠

본문 제목

‘목소리 복제 10초’, AI 피싱이 당신을 노릴 때 반드시 알아야 할 한 가지

라이프/IT

by Jiung. 2025. 9. 3. 01:13

본문

"아들 목소리로 돈을 보내라고?" AI 피싱 시대, 우리는 무엇을 알아야 할까

"지금 급한데 50만 원만 바로 보내줄 수 있어?" 어느 날 갑자기 아들의 목소리로 걸려온 전화. 너무나 익숙한 목소리에 아무 의심 없이 돈을 보내려는 순간, 무언가 이상한 낌새를 느껴본 적 있으신가요? 만약 그랬다면, 당신은 생성형 AI가 만든 신종 보이스 피싱을 피한 것일 수 있습니다. AI 기술이 발전하며 이제는 목소리뿐만 아니라 얼굴까지 복제한 '딥페이크' 영상 통화 사기까지 등장하며 우리의 불안감을 키우고 있습니다. 최근에는 AI를 악용해 한 명의 해커가 거대 조직처럼 정교한 사이버 공격을 실행하는 전례 없는 사례까지 등장했습니다. 더 이상 "나는 안 당해"라고 장담할 수 없는 시대, 이 글에서는 최신 AI 피싱의 현주소를 짚어보고, 이 새로운 위협 앞에서 우리가 생각해봐야 할 지점들을 함께 나눠보고자 합니다.

 

 

"내 목소리, 내 얼굴이 범죄에?" 진화하는 AI 피싱의 현주소

최근 기승을 부리는 피싱 사기의 중심에는 '생성형 AI' 기술이 자리 잡고 있습니다. 이 기술은 단 몇 초 분량의 음성 데이터만 있으면 특정인의 목소리를 거의 완벽하게 복제해낼 수 있다고 합니다. 우리가 무심코 SNS에 올린 영상 속 목소리, 심지어 짧은 통화 내용만으로도 범죄에 악용될 '목소리 아바타'를 만들 수 있다는 사실은 꽤나 충격적입니다. 이렇게 만들어진 AI 목소리는 가족이나 지인을 사칭해 다급한 상황을 연출하며 돈을 요구하는 'AI 보이스 피싱'에 사용됩니다. AI 보이스 피싱 대처법에 대한 논의가 활발해지는 이유이기도 합니다.

 

여기서 한 단계 더 나아간 것이 바로 '딥페이크' 기술을 활용한 영상 통화 사기입니다. 범죄자들은 SNS에 공개된 사진 여러 장과 짧은 영상을 조합해 특정인의 얼굴을 영상에 합성합니다. 이후 AI로 복제한 목소리를 입히면, 화면 너머의 자녀나 손주가 직접 영상 통화로 돈을 부탁하는 것처럼 보이는 끔찍한 상황이 연출됩니다. 실제로 북한과 연계된 해커 그룹이 생성형 AI를 활용해 가짜 이력서와 딥페이크 인터뷰로 신분을 위장, 작년에만 320개 이상의 기업에 침투했다는 소식은 AI 기술의 악용이 얼마나 현실적인 위협인지 보여줍니다.

 

뿐만 아니라, AI는 개인의 정보를 분석해 더욱 정교한 사기를 설계하기도 합니다. 바로 '스피어 피싱(Spear Phishing)'입니다. 이는 불특정 다수에게 무작위로 보내는 일반 피싱 메일과 달리, AI가 특정 개인의 SNS, 직장, 동료 관계 등을 세밀하게 분석하여 맞춤형 이메일을 보내는 방식입니다. '김대리님, 지난번 논의했던 000 프로젝트 관련 긴급 송금 요청서입니다'와 같은 이메일은 의심하기가 쉽지 않습니다. 앤트로픽의 보고서에 따르면, 해커들이 AI를 이용해 악성코드를 만들고 정보, 의료 기관 등 최소 17개 기관을 공격해 민감 정보를 빼냈으며, AI로 랜섬웨어 협박서까지 작성하는 등 사이버 범죄의 전 과정에 AI가 깊숙이 관여하고 있다는 사실을 알 수 있습니다.

 

 

가짜와 진짜의 경계, AI 피싱은 어떤 흔적을 남길까?

아무리 기술이 발전했더라도 아직 AI가 만든 가짜 콘텐츠에는 허점이 존재합니다. 조금만 주의를 기울이면 AI 피싱의 결정적인 단서를 발견할 수 있습니다. 딥페이크 사기 구별법으로 전문가들이 흔히 언급하는 것은 영상 속 인물에 대한 세심한 관찰입니다. 예를 들어,

  • 눈 깜빡임이 부자연스럽거나 빈도가 너무 적고,
  • 입 모양과 목소리가 미세하게 맞지 않으며,
  • 얼굴 윤곽선이나 머리카락 주변이 흐릿하게 깨져 보이거나,
  • 조명이나 그림자에 따라 피부 톤이 어색하게 변하는 등

미세한 부자연스러움이 존재한다고 합니다. AI 음성 역시 전체적인 감정의 고저가 없거나 문장 중간에 미세한 기계음이 섞여 들리는 허점을 드러내기도 합니다. 하지만 무엇보다 가장 확실한 방법은, 어쩌면 가장 아날로그적인 방식일지도 모릅니다. 바로 '우리만 아는 질문'을 던지는 것이죠. "작년 내 생일에 같이 먹었던 음식이 뭐였지?", "우리 집 강아지 이름이 뭐야?" 와 같은 질문에 상대가 당황한다면, 이는 기술로 복제할 수 없는 인간적인 신호가 될 것입니다.

 

이메일 피싱 확인 방법 역시 마찬가지입니다. 발신자의 이메일 주소에 알파벳 'o'가 숫자 '0'으로 바뀌어 있지는 않은지, 본문의 링크에 마우스를 올렸을 때 나타나는 실제 주소가 의심스럽지는 않은지 확인하는 작은 습관이 중요해 보입니다.

 

 

AI 공격 시대, 우리의 '디지털 문단속'은 안녕한가?

이처럼 정교해지는 AI 피싱 공격을 탐지하고 구별하는 것도 중요하지만, 이제는 공격이 들어올 것을 대비해 미리 문을 잠그는 '사전 방어'의 중요성이 그 어느 때보다 커지고 있습니다. 모든 사이버 보안의 핵심은 결국 '계정 보호'에서 시작되기 때문입니다. 만약 내 계정이 단 한번이라도 해커의 손에 넘어간다면, 범죄자들은 내 신원을 도용해 지인들에게 2차, 3차의 피싱 공격을 감행하는 발판으로 삼을 수 있습니다.

 

이러한 위협에 맞서 개인이 지금 당장 실천할 수 있는 가장 확실하고 강력한 방어선은 바로 '2단계 인증(2FA)'을 생활화하는 것입니다. 2단계 인증은 아이디와 비밀번호를 입력하더라도, 내 스마트폰으로 전송되는 인증 코드나 생체 인식을 한 번 더 거쳐야만 로그인이 완료되는 이중 잠금장치입니다. 해커가 어떤 방법으로 내 비밀번호를 알아 내더라도, 물리적으로 내 스마트폰을 갖고 있지 않다면 계정에 접근할 수 없는, 단순하지만 가장 효과적인 방패인 셈입니다.

 

여기서 한발 더 나아가, 최근 구글, 애플, 마이크로 소프트 등 빅테크 기업들은 비밀번호 자체를 없애는 '패스키(Passkey)' 기술을 적극적으로 도입하고 있습니다. 이는 생성형 AI 시대에 매우 중요한 변화입니다. 그렇다면 이런 의문이 들 수 있습니다. "결국 패스미카저도 생성형 AI에 의해 뚫리는 것 아닐까?"

 

결론부터 말하자면, 현재 생성형 AI가 패스키의 암호 기술 자체를 뚫는 것은 사실상 불가능합니다. 생성형 AI의 강점은 복잡한 암호를 푸는 수학적 연산이 아니라, '사람을 완벽하게 속이는 콘텐츠'를 만드는 데 있기 때문입니다. AI는 진짜 같은 피싱 메일을 쓰고, 내 목소리를 흉내 낼 수는 있지만, 패스키의 암호 체계를 직접 파괴하지는 못합니다.

 

패스키의 핵심은 '해커가 훔쳐 갈 비밀번호가 애초에 존재하지 않는다'는 점입니다. 예를 들어, 사용자가 교묘하게 만들어진 가짜 피싱 사이트에 접속했다고 가정해 봅시다. 기존 방식이라면 사용자는 속아서 비밀번호를 입력했겠지만, 패스키는 사용자가 입력할 비밀번호 자체가 없습니다.

 

더 중요한 것은, 패스키가 처음 생성될 때 '정상적인 사이트의 공식 주소'와 한 쌍으로 암호화되어 기기에 저장된다는 점입니다. 따라서 주소가 다른 가짜 사이트에 접속하면, 기기는 해당 사이트와 일치하는 패스키가 없다고 판단하여 아예 인증 요청 자체를 사용자에게 보여주지 않습니다. AI가 사람의 '심리적 허점'을 노린다면, 패스키는 그 허점이 개입될 '과정' 자체를 기술적으로 차단하는 셈입니다.

 

결국 고도화된  AI의 창과 맞서는 가장 현실적인 방패는, 비밀번호를 더 길고 복잡하게 만드는 노력이 아니라, 2단계 인증과 패스키처럼 더 발전된 방어 기술을 이해하고 적극적으로 활용하려는 우리 자신의 의지일 것입니다.

 

 

인용

해킹 범죄에 악용되는 AI..."北 AI 활용해 외화벌이"

[AI와 보안] 크라우드스트라이크, “북한 IT 노동자 320개 기업 위장 취업”...AI 무기화 가속

 

관련글 더보기