며칠 전부터 온라인에서 큰 화제가 된 포스팅이 있다. 많은 사람들이 페이스북이나 X에서 공유 버튼을 눌렀고, 좀 더 성의 있는(?) 사람들은 사진과 텍스트를 따로 복사해서 붙여 자신의 포스팅으로 공유했다. (아래 사진) 결론부터 이야기하면 이 텍스트와 사진은 모두 가짜다.

소셜미디어에서 허위 정보, 가짜뉴스를 만나는 건 일상적인 일이지만, 이 케이스는 유독 눈에 띈다. 우선 너무나 많은 사람들이 속아서 공유했기 때문이고, 더 흥미로운 건 평소 허위 정보에 잘 속지 않는 사람들도 이를 사실로 생각했기 때문이다.

출처: Facebook

많은 사람을 속일 수 있었던 가장 큰 이유는 사진이 AI를 사용한 흔한 조작 사진보다 훨씬 사실적으로 잘 만들어졌기 때문이다.

가령, 소셜미디어에 돌아다녔던 아래 이미지(일론 머스크가 미국 국기 무늬로 만들어진 침낭에서 자는 모습)를 보면 나름 사실적으로 보이도록 애쓴 티는 나지만, AI 특유의 과장된 배경 흐리기(blur, 블러) 처리가 금방 눈에 띄고—물론 이를 포스팅한 일론 머스크의 팬들에게는 잘 보이지 않는 듯하지만—표정이나 설정이 지나치게 작위적이다. 이 이미지와 비교하면 위의 사진은 훨씬 자연스럽다. 배경을 요즘 영화 촬영장에서 쉽게 볼 수 있는 그린 스크린으로 처리한 것도 아주 교묘한 선택으로 보인다.

AI가 만들어낸 이미지에 익숙한 사람들은 배경에 들어간 심한 블러 처리나, 지나치게 매끄러운 질감, 혹은 과장된 표정을 보고 AI가 만들어 낸 이미지임을 직감하게 되는데, 아래에 있는 일론 머스크 이미지의 경우 질감은 자연스럽지만, 배경과 표정에서, 그리고 무엇보다 이런 사진을 누가 찍겠느냐는 상식적인 의심을 통해 조작을 의심한다. 이에 반해 키아누 리브스와 함께 등장한 위의 이미지를 보면 피부의 잔주름이나 잡티가 고스란히 드러날 뿐 아니라, 옷도 두 사람이 평소 입고 나타나는 옷이고, 주름도 어색한 구석을 쉽게 찾을 수 없다. 게다가 그린 스크린 앞에 서 있는 설정 때문에 사람들이 AI 이미지를 찾아낼 수 있는 배경이라는 요소가 사라졌고, 두 사람의 외곽선이 어색한 것도 무시할 수 있게 도와준다.

한마디로, 아주 영리한 선택을 한 거다.

출처: X

그렇기 때문에 이런 포스팅이 페이스북에 돌아다니는 것을 본 나는 그 사진을 AI가 생성했을 가능성이 충분하기는 해도 100% 장담하기는 힘들다고 생각했다. 내가 조작을 의심한 이유는 따로 있다. 하지만 그 이유를 설명하기 전에 최근 내가 콘텐츠를 팩트체크할 때 점점 더 많이 사용하는 아주 손쉬운 방법을 소개해 보려 한다. 바로 AI에 물어보는 것이다.

AI가 만들어냈는지 아닌지를 AI에 물어보는 건 이미 보편화된 방법이다. 대학교에서는 학생들이 제출한 페이퍼에 AI가 사용되었는지를 판별하는데 AI 소프트웨어를 사용하는 일이 흔하다. 하지만 모든 AI가 같은 실력을 갖고 있는 게 아니기 때문에 인기 있는 서비스 세 개에 똑같은 요청을 해서 어떤 답을 내놓는지 보기로 했다. 내가 사용한 건 챗GPT와 구글의 제미나이(Gemini), 그리고 퍼플렉시티(Perplexity)였고, 모두 무료 버전이다.

요청 내용은 이랬다. 키아누 리브스와 일론 머스크가 들어간 이미지 파일을 업로드한 후에 "Is this photo real? What's the story behind it? (이 사진이 진짜야? 이것과 관련된 이야기가 뭐야?)"라는 질문을 똑같이 했다. 결과부터 말하면, 챗GPT와 구글 제미나이는 이 이미지가 실제 사진이 아닐 가능성이 아주 높다고 답했고, 퍼플렉시티는 실제 사진 같다고 답했다. 다른 통로로 확인한 결과, 챗GPT와 제미나이는 맞았고, 퍼플렉시티는 틀렸다. 여기에서 주목해야 하는 건 그런 결론에 도달한 근거다.

먼저 챗GPT의 설명을 보자. 이 AI는 먼저 이미지의 내용을 간략하게 설명한("유명한 두 사람이 함께 서 있는 것으로 보인다") 후에 빛이 균일하지 않고, 두 이미지의 선명도에 차이가 있는 등의 이유로 이 그림이 AI가 만들었거나 디지털 도구로 변형되었을 가능성이 크다고 말한다.

챗GPT는 뒤이어 이렇게 말한다. "현재로서는 이 두 사람이 이렇게 함께 등장했다는 얘기가 미디어나 대중들 사이에 나오지 않았다." 그러면서 이런 이미지들은 오락이나 풍자, 혹은 바이럴을 목적으로 포토샵이나 AI 이미지 생성기로 만들어지곤 한다고 설명한다.

챗GPT의 답변

제미나이의 대답은 좀더 단도직입적이고, 더 많은 맥락을 제공했다. "검색 결과, 이 사진이 사실일 가능성은 거의 없다"면서, 많은 포스트에서 "두 사람의 토론, 혹은 의견 교환이 생방송에 나왔다"는 가상의 이야기를 다루고 있다고 설명한다. 나는 이 이미지가 올라온 포스팅에서 텍스트는 생략하고 사진만 AI에 주었지만, 제미나이는 이 이미지의 사실 여부를 분석하기 위해 온라인에 올라온 포스팅을 찾아서 내용을 읽어 본 것이다. 챗GPT도 같은 확인 작업을 했을 수 있지만, 적어도 내게 그 작업을 했다는 말은 해주지 않았고, 포스팅을 언급하지도 않았다.

두 번째 문단에서는 챗GPT와 같은 근거를 사용한다. 이미지에 등장하는 것처럼 키아누 리브스와 일론 머스크가 캐주얼하게 함께 등장했다는 "신뢰할 만한 뉴스나 사진 증거가 보이지 않는다"는 것이다. 따라서 내가 문의한 이미지는 AI가 생성한 것일 가능성이 높다고 결론을 내린다.

구글 제미나이의 답변

눈길을 끄는 건, 챗GPT와 제미나이가 이 이미지의 진위를 결정하기 위해 인간에 의존했다는 점이다. 챗GPT는 약간의 이미지 분석을 시도했지만, 제미나이는 이미지 속 조명이나 화소 따위는 아예 언급하지 않았고, 둘 다 온라인에서 두 사람의 대화를 언급한 사례를—이와 똑같은 포스팅을 제외하면—찾을 수 없기 때문에 가짜라고 결론을 내렸다. 내가 문제의 포스팅이 페이스북에서 공유되는 것을 보고 제일 처음 조작을 의심했던 이유가 바로 그거였다.

키아누 리브스와 일론 머스크는 둘 다 많은 팬을 거느린 유명인이다. 하지만 두 사람의 팬덤은—비록 젊은 남성들이 많다는 점에서는 비슷할 수 있어도—정치적으로 확연히 다른 성격을 갖고 있다. 그런 두 사람이 친구 사이라는 말은 들어 본 적이 없는데, 돌연 만나서 깊고 철학적인 대화를 나눴다는 것도 낯선 얘기지만, 그런 일이 있었는데 언론에 보도가 되지 않았다는 건 이상한 일이다. 시청률과 클릭 수에 배고픈 매체들이 그걸 보도하지 않았을 리 없기 때문이다.

물론 소셜미디어가 주요 매체보다 소식을 빠르게 전할 때가 많고, 그렇기 때문에 두 사람이 만난 소식이 주류 매체가 보도하기 전에 소셜미디어에 퍼졌을 가능성이 없는 건 아니다. 하지만 여기서부터는 개연성(plausibility)의 문제다. 가짜뉴스는 사회적 현상이기 때문에 틀릴 가능성이 전혀 없다고 말하기는 힘들다. 그래서 개연성으로 결정해야 할 경우가 많다. 위의 AI들이 "strongly suggests," "highly unlikely"라는 표현을 쓰는 이유도 그거다. 그렇게 봤을 때 이 포스트가 사실이기 위해서는 최초 작성자가 매체의 기자들이 접근하기도 전에 먼저 이들이 만난 장면을, 그것도 단독으로 알릴 만큼 가까운 사람이어야 한다.

그렇다면 위의 포스팅은 누가 만들었고, 어떻게 퍼졌을까?

처음 한국어로 번역한 사람은 누군지 알 수 없지만, 그 사람은 영문으로 된 포스트에서 가져온 것으로 보인다. 그 이유는 이렇다. 우선, 한글이든, 영문이든 이 내용을 퍼 나르는 사람들의 포스트는 "Daniel Gugger 888"이라는 사람이 작성했다고 밝히면서 끝난다. 따라서 소셜미디어에서 어렵지 않게 원 작성자를 찾을 수 있다. (아래 사진 오른쪽) 다니엘 구거는 독일인으로 보인다. 모든 포스트가 독일어로 작성되었고, 대부분 독일 정치를 이야기하는 내용으로 가득하다. 문제의 포스트도 원문은 독일어로 작성된 것이다.

그런데 한글 포스트의 마지막을 보면 날짜 표기가 "8. 2025년 4월"로 되어 있다. 이런 식으로 날짜를 표기하는 문화가 있는지는 모르겠지만, 이건 한국식도, 미국식도 아니다. 독일어를 영어로 가장 먼저 옮긴 것으로 보이는 사람(제임스 테이트, James Tate)의 포스팅을 보면 "8. April 2025"라는 표기가 보인다. 제임스 테이트의 자기소개를 보면 미국인인데 왜 이런 표기를 했을까? 단순한 실수일 수도 있지만, 유럽에서는 일/월/년 순으로 표기하기 때문에 그가 유럽식으로 표기된 날짜를 옮긴 것일 수도 있다. 분명한 건 한글 포스트는 (번역된) 영문 포스트를—아마도 자동 번역기를 통해—한국어로 옮겼다는 거다.
이건 기독교의 성경처럼 오래되고 다양한 버전이 존재하는 문서의 번역 계보를 확인할 때도 사용하는 방법이다. 문서가 필사되는 과정에서 오류가 생기는데, 어떤 판본이 어떤 오류를 갖고 있는지 보고 판본의 전후 관계를 확인하는 것이다.
왼쪽부터 한글, 영문, 독일어 버전
출처: Facebook, X

여기까지 알게 되었다면 사진의 진위 확인 없이도 텍스트의 내용만으로 가짜일 가능성을 충분히 짐작할 수 있다. 다니엘 구거라는 알려지지 않은 독일인이 전 세계에서 모르는 사람이 없는 유명인 두 명의 대화를, 그것도 유명 매체들도 접근하지 못한 장소에서 나눈 대화를 엿들을 수 있는 가능성이 얼마나 될까? 거의 없다. 게다가 다니엘 구거의 X 계정을 살펴보면 그가 조작된 이미지를 많이 공유하는 사람임을 금방 알 수 있다

흥미로운 건, 다니엘 구거의 포스팅이 애초에 인기를 특별히 끌거나 많이 공유되지도 않았다는 사실이다. 물론 그의 평소 포스트에 비하면 많이 공유된 편이지만, 좋아요 401개, 공유 172개를 전 세계적인 바이럴이라고 하기는 힘들다. 하지만 그 포스트가 번역되어 공유되는 과정에서 본격적인 바이럴이 생긴 것으로 보인다. 이게 화제가 되고 퍼지자 유명 팩트체크 사이트인 Snopes가 나서서 이게 가짜뉴스임을 설명하기도 했다. (Snopes는 주류 매체에서 문제의 내용을 다뤘는지를 확인한다.)

그렇다면 사람들은 왜 이 포스트를 굳이 번역까지 해가면서 공유했을까? 위의 가짜 대화 속에 어느 부분이 사람들의 마음에 들었길래 공유하고 싶었을까? 독일어 원문을 영어로 옮겨 퍼뜨린 제임스 테이트의 자기소개를 통해 어느 정도 짐작해 볼 수 있다. 그는 자신을 "세 아이의 아버지이고, 그중 한 아이는 다운 신드롬을 갖고 있으며, 트럼프 컬트로부터 미국을 구하고 싶다"라고 소개하고 있다.

트럼프에 반대하는 사람이라면 지금의 일론 머스크도 싫어할 것이고, 그런 사람이라면 위의 포스트에 나온 것처럼 키아누 리브스 같은 배우 앞에서 머스크가 할 말을 잃었다는 내용을 통쾌하게 생각했을 가능성이 크다. 한국어로 옮겨진 내용을 소셜미디어에서 공유한 한국인들도 대부분 진보적인 사람들로 보인다.

흔히 가짜뉴스는 보수진영에서 많이 퍼진다고들 알려져 있다. 이건 틀린 말이 아니다. 하지만 그렇다는 사실이 진보적인 사람이 가짜뉴스에 속지 않는다는 얘기는 아니다. 누구나 가짜뉴스를 믿을 때가 있고, 그렇게 믿게 되는 가짜뉴스는 거의 예외 없이 평소에 자기가 가진 생각(혹은 편견)에 부합하는 내용을 갖고 있다. 따라서 가짜뉴스인지 의심해야 하는 뉴스는 내가 믿기 싫은 뉴스가 아니라, 내가 믿고 싶은 뉴스다. 소셜미디어에서 읽은 포스트가 너무나 통쾌할 때 내가 속을 가능성이 높아진다.

나는 위의 (영문) 포스트에서 텍스트만을 긁어서 챗GPT에게 보여주고 AI가 만든 것 같으냐고 물었다. 대답은 이랬다. "사람이 시적, 극적인 효과를 노리고 썼을 수도 있지만, AI가 만들었다고 할 만한 글입니다." 그 이유로 몇 가지를 제시했는데 (여기에서 읽어 볼 수 있다) 그중 첫 번째가 이거였다:

"지나치게 이상화된 대화(overly idealized dialogue)라서."


테스트한 AI 중에서 유일하게 틀린 것이 퍼플렉시티였다. 아래의 답변을 보면 퍼플렉시티는 소셜미디어에서 이야기한 내용을 가감 없이 사실로 받아들이고 그걸 나에게 설명하고 있을 뿐 아니라, 그린 스크린의 존재조차 "프로덕션 퀄리티를 높이거나, 시각 효과를 위해 사용되었을 것"이라며 아주 적극적으로 속아 넘어간다.

퍼플렉시티의 답변

그런 의미에서 가장 인간적이라는 느낌마저 들기도 하지만, 이 AI가 다른 두 AI와 달리, 하지 않은 것이 무엇인지 이해할 필요가 있다. 퍼플렉시티는 주요 언론 매체에서 이 이야기를 다뤘는지 확인하지 않았다. 달리 말하면, 챗GPT, 제미나이가 퍼플렉시티보다 더 정확할 수 있었던 건 인간 기자들의 실력을 인정하고 귀를 기울였기 때문이다.

AI의 등장으로 언론이 힘을 잃고, 기자들이 직장을 잃게 되는 상황은 궁극적으로 AI 성능에도 좋은 일이 아니다. 가짜뉴스로 사람을 속이는 것도 인간이지만, 그걸 밝혀내는 것도 결국 인간이기 때문이다. 🦦