INSIGHT
가짜뉴스 시대의 생존법,
AI 리터러시
2025.11.25
2024년 1월, 미국 뉴햄프셔 예비선거 하루 전. 민주당 당원들의 전화벨이 울렸습니다. “11월 대선을 위해 여러분의 투표를 아껴두세요.” 조 바이든 대통령의 목소리였습니다. 최대 2만 5천 명에게 전달된 이 메시지는 예비선거 불참을 독려하는 내용이었죠. 하지만 바이든 대통령은 그런 말을 한 적이 없었습니다. AI가 만든 완벽한 합성 음성, 딥페이크였던 겁니다.
이제는 딥페이크 영상, 합성 음성, 그림조차 의심 없이 믿어버리는 시대가 왔습니다. 더 심각한 건, 이런 정보가 알고리즘을 타고 빛의 속도로 확산된다는 점이죠. 팩트체크 기사가 나중에 나와도 이미 수많은 이들이 그 거짓을 ‘진실’로 믿어버립니다. 우리는 어떻게 대응해야 할까요? 지금부터 AI 시대의 새로운 리터러시를 함께 들여다봅니다.
📰 가짜뉴스의 얼굴, 이제는 ‘AI’다
예전의 가짜뉴스는 대부분 텍스트 기사 형태였습니다. 제목은 자극적이고, 내용은 부정확하지만, 그래도 ‘글’이었죠. 하지만 지금은 ChatGPT, Claude 같은 생성형 AI 덕분에 정보 생산의 문턱이 엄청나게 낮아졌어요. 누구나 그럴듯한 기사를 몇 초 만에 생성할 수 있습니다.

문제는 여기서 멈추지 않는다는 겁니다. 이제 AI는 텍스트뿐 아니라 사진, 영상, 음성까지 ‘진짜처럼’ 만들어냅니다. 실제 사례를 볼까요?
사례 1: 2,500만 달러가 사라진 화상회의
2024년 1월, 홍콩의 글로벌 엔지니어링 회사 Arup의 한 직원이 화상회의에 참석했습니다. 화면 속 CFO와 여러 동료들의 지시로 그는 15차례에 걸쳐 총 2,500만 달러(한화 약 320억 원)을 송금했습니다. 그런데 알고 보니, 화면 속 모든 사람은 AI가 만든 딥페이크였습니다. 사상 최대 규모의 딥페이크 사기였죠.
사례 2: 송은이도 몰랐던 ‘내’ 광고
국내에서도 유명인의 얼굴을 합성한 가짜 투자 상품 광고가 SNS를 통해 확산된 적이 있습니다. 2023년 9월, 유튜버 김미경, 코미디언 송은이·황현희, 투자 전문가 존 리 등이 특정 투자 플랫폼을 추천하는 영상이 등장했지만, 실제로는 AI 딥페이크로 합성된 가짜였습니다. 수많은 사람들이 속아 약 1조 원에 달하는 피해를 입었죠.
사례 3: 정치적 혼란을 부른 2분
2023년 9월, 슬로바키아 총선 투표일 이틀 전. 야당 대표 미하엘 쉬메츠카가 “우리 당이 선거에 이기려면 로마족에게 돈을 줘야 한다”며 선거 조작을 암시하는 음성 파일이 SNS를 통해 퍼져나갔습니다. 야당과 언론은 즉시 이를 가짜라고 부인했고, 전문가들이 AI 조작임을 확인했습니다. 하지만 문제는 타이밍이었습니다. 슬로바키아 선거법상 투표 48시간 전부터는 선거 관련 논의가 금지되는 ‘침묵 기간’이었고, 야당은 이 가짜 음성에 제대로 반박조차 할 수 없었습니다. 진실이 밝혀졌을 때는 이미 야당이 총선에서 패배한 후였습니다.
이 모든 사례의 공통점은 뭘까요? ‘기술이 발전할수록 가짜와 진짜의 경계가 무너지고 있다’는 점입니다.
🎭 딥페이크, 이제는 누구나 만들 수 있다
딥페이크는 더 이상 영화 속 특수효과 팀의 전유물이 아닙니다. 스마트폰 앱 하나면 누구나 몇 분 만에 유명인의 얼굴을 합성한 영상을 만들 수 있어요. 문제는, 진위 판별이 점점 어려워진다는 점입니다.

영상 속 사람의 눈동자 깜빡임, 입술과 음성의 싱크, 조명의 자연스러움. 예전엔 이런 디테일로 가짜를 구별할 수 있었지만, 이제 AI는 이 모든 걸 완벽하게 재현합니다. 심지어 호흡에 따른 미세한 어깨 움직임, 말할 때 자연스럽게 흔들리는 머리카락까지 재현할 수 있죠.
어떻게 만들어질까? 딥페이크의 원리
딥페이크는 ‘딥러닝(Deep Learning)’과 ‘페이크(Fake)’의 합성어입니다. AI가 수천, 수만 장의 사진과 영상을 학습해서 특정 인물의 얼굴 패턴을 익히고, 이를 다른 영상에 자연스럽게 합성하는 기술이죠.
초기엔 수십 시간의 고성능 컴퓨팅이 필요했지만, 이제는 일반 스마트폰 앱으로도 5분 안에 제작할 수 있습니다. 기술의 민주화가 가져온 양날의 검이죠.
그렇다고 손 놓고 있을 순 없습니다. 다행히 세계 각국과 빅테크 기업들은 딥페이크 탐지 기술을 개발 중입니다.
- 디지털 워터마크: AI가 생성한 콘텐츠에 보이지 않는 마크를 삽입해 출처를 추적
- 포렌식 분석 툴: 리얼리티 디펜더(Reality Defender), 딥웨어(Deepware) 같은 딥페이크 탐지 툴로 영상 분석
- 콘텐츠 출처 인증 시스템: AC2PA(Coalition for Content Provenance and Authenticity) 같은 국제 표준으로 콘텐츠 이력 관리
- 메타데이터 분석:이미지나 영상 파일에 숨겨진 생성 정보 확인
하지만 이 역시 완벽하지 않습니다. AI가 가짜를 만드는 속도만큼, 탐지 기술도 빠르게 발전하지만, 결국 이건 끝없는 창과 방패의 싸움이에요. 그래서 기술만으로는 부족합니다. 결국 마지막 필터는 사용자 자신이니까요.

생성형 AI가 알려주는 정보도 100% 믿어서는 안 됩니다. AI가 그럴듯하지만 틀린 정보를 만들어내는 현상을 ‘환각(Hallucination)’이라고 부릅니다. 이건 악의적인 가짜뉴스는 아니지만, 결과적으로 ‘거짓 정보’를 만들어내는 또 다른 형태의 문제예요.
환각 사례 예시
- 🆖 존재하지 않는 연구 인용: “2023년 하버드 연구에 따르면...”이라며 아예 존재하지 않는 논문을 인용
- 🆖 통계 수치: “한국인의 87%가 매일 커피를 마신다”는 식의 근거 없는 통계
- 🆖 왜곡된 역사적 사실: 실제 역사적 사건의 날짜, 인물, 내용을 미묘하게 변형
- 🆖 잘못된 의학 정보: 특정 질병의 치료법이나 증상을 부정확하게 설명
왜 이런 일이 생길까요? AI는 방대한 데이터를 학습하지만, ‘사실 확인’을 하는 게 아니라 ‘패턴 예측’을 하기 때문입니다. “이런 질문 뒤에는 보통 이런 답이 온다”는 식으로 답변을 생성하는 거죠. 그러다 보니 실제로 존재하지 않는 정보도 그럴듯하게 만들어낼 수 있어요.
그래서 AI가 준 답변은 ‘정답’이 아니라 ‘참고 정보’로 이해해야 합니다. 특히 중요한 의사결정을 할 때는 반드시 교차 검증이 필요해요.
💡 지금 필요한 건 ‘AI 리터러시’
AI 리터러시(AI Literacy)는 단순히 “정보를 소비하는 능력”이 아닙니다. 정보의 출처와 맥락을 스스로 검증하고, AI가 만든 콘텐츠를 비판적으로 판단할 수 있는 힘을 말하죠. 그리고 이 능력은 거창한 게 아닙니다. 일상에서 실천할 수 있는 작은 습관들로 충분해요.

👀 출처를 먼저 본다
누가 만들었는지, 언제 게시됐는지, 어디서 출처를 인용했는지를 먼저 확인하세요.
실전 팁
- URL을 꼼꼼히 체크하세요. ‘bbc.co.uk’ 같은 정식 도메인인지, ‘bbc-news-today.com’ 같은 유사 도메인인지 구별하는 게 첫걸음입니다.
- 기사 하단의 ‘작성자’ 정보를 확인하세요. 실명이 없거나, ‘관리자’, ‘에디터’ 같은 익명의 필명이라면 의심해봐야 합니다.
- 게시 날짜를 체크하세요. 오래된 기사를 마치 최신 뉴스처럼 재공유하는 경우도 많아요.
⛔️ 감정을 자극하는 문장은 한 번 멈춘다
‘분노’, ‘공포’, ‘불안’을 자극하는 문장은 가짜뉴스가 자주 쓰는 방식입니다.
이런 표현을 조심하세요
- 🆖 “지금 당장 확인하지 않으면 큰일 납니다!”
- 🆖 “99%의 사람들이 모르는 충격적인 진실”
- 🆖 “정부가 숨기고 있는 실체”
읽기 전에 “이 정보가 나에게 어떤 감정을 유도하려 하는가?”를 먼저 생각해보세요. 감정이 앞서면 판단력이 흐려집니다. 클릭하기 전, 공유하기 전, 한 번 더 숨을 고르세요.
🛠️ 이미지·영상은 진위 탐지 툴로 검증하기
AI 합성 여부를 확인할 수 있는 무료 툴이 여럿 있습니다.
추천 툴
- 🔍 Reality Defender (realitydefender.ai): 딥페이크 영상 탐지 전문
- 🔍 Deepware Scanner (deepware.ai): 얼굴 합성 여부 확인
- 🔍 Google 이미지 검색: 이미지 우클릭 → “Google 이미지 검색”으로 원본 출처 역추적
- 🔍 TinEye (tineye.com): 이미지 역검색 전문 사이트
툴을 쓰기가 부담스럽다면, 간단하게 따라 할 수 있는 몇 가지 팁도 있어요.
간단한 체크리스트
- ☑️ 영상 속 인물의 눈동자가 자연스럽게 깜빡이나요?
- ☑️ 입술 움직임과 음성이 정확히 일치하나요?
- ☑️ 배경과 인물 사이에 부자연스러운 경계선이 보이나요?
- ☑️ 조명 방향이 얼굴과 배경에서 일치하나요?
🪢 AI의 답변은 ‘추가 검증’을 통해 확인하기
AI가 알려준 사실을 다른 공식 자료나 뉴스 검색으로 교차 확인하세요.
검증 프로세스
- AI가 제시한 통계나 인용문을 복사
- Google Scholar, 공식 기관 사이트에서 검색
- 최소 2~3개의 신뢰할 수 있는 출처에서 동일한 내용 확인
- 날짜, 숫자, 인물명 등 구체적 정보가 일치하는지 대조
특히 의학, 법률, 금융 정보처럼 전문적이고 중요한 분야는 반드시 전문가나 공식 기관의 정보를 재확인하세요.
🤔 “진짜일 필요가 있나?”를 스스로 묻기
정보를 공유하기 전, 그 내용이 ‘공유할 만한 가치가 있는지’ 한 번 더 생각해보세요.

AI 시대의 가장 큰 리터러시는 어쩌면 ‘멈춤’일지도 모릅니다. 빠르게 반응하는 것보다, 정확하게 판단하는 게 더 중요하니까요.
🌐 기술로 막고, 사람으로 완성한다
AI가 만든 가짜뉴스에 대응하기 위해 세계 각국과 빅테크 기업들도 움직이고 있습니다.
글로벌 대응 사례
- EU AI Act: 유럽연합은 딥페이크 콘텐츠에 대한 의무적 표시제를 도입
- Google의 SynthID: AI가 생성한 이미지에 보이지 않는 워터마크 삽입 기술
- Meta의 탐지 시스템: Facebook, Instagram에서 딥페이크 영상 자동 탐지 및 경고
- OpenAI의 투명성 정책: ChatGPT가 생성한 콘텐츠임을 명시하도록 권고
하지만 기술만으로는 완벽하지 않습니다. 결국 마지막 필터는 사용자 자신이니까요. AI가 만든 ‘거짓’을 구별하는 힘은, AI를 이해하는 사람의 리터러시에서 시작됩니다. 진짜처럼 보이는 시대일수록, 현명한 의심이 가장 강력한 방패가 됩니다.
🕵️ 진짜를 찾아내는 건 결국 사람의 몫
AI는 엄청난 속도로 발전하고 있지만, 그 발전이 ‘정보의 민주화’를 넘어 ‘정보의 혼란화’로 이어지지 않도록 우리 모두가 경계해야 합니다. 정보를 믿는 법을 배우는 것. 진짜와 가짜를 구별하는 법을 익히는 것. 그리고 무엇보다 멈추고, 생각하고, 검증하는 습관을 가지는 것. 그것이 진짜 ‘AI 리터러시’ 아닐까요?