챗GPT를 만든 오픈AI에서 새 AI 모델인 GPT-4o를 발표하자 많은 사람들이 11년 전에 나온 영화 '그녀(Her)'를 이야기한 것에는 분명한 이유가 있었다. 새 모델은 텍스트가 아닌 음성으로 사용자와 대화를 나누었을 뿐 아니라, 폰의 카메라를 통해 사용자와 똑같은 공간에서 보고, 듣는 존재로 등장했기 때문이다. 게다가 사람들이 사교적인 만남에서 대화 상대에 끌릴 때 주고받는 플러팅(flirting)까지 구사했다.

하지만 유사성은 GPT-4o에 사용된 '스카이(Sky)'라는 캐릭터가 대화에 임하는 태도만이 아니다. 목소리 자체가 스칼렛 요한슨(Scarlett Johansson)이 영화에서 연기한 목소리(사만다)와 너무나 닮았다. 먼저 데모 영상의 일부를 보자:

아래는 영화 속에서 주인공이 AI 사만다를 처음 만나는 장면이다. 위의 영상 속 스카이의 음성과 말하는 태도와 아래를—특히 낮은 톤과 보컬 프라이(vocal fry), 웃음과 성격에 집중해서—비교해 보라.

두 목소리의 유사성을 의심하는 사람은 없었고, 아무리 비교해 봐도 오픈AI가 이를 의도했다는 생각을 떨치기 힘들었다. 그렇다면 혹시 오픈AI는 스칼렛 요한슨과 이 문제로 사전에 상의했을까? 그랬던 것으로 밝혀졌다. 문제는 요한슨이 분명하게—그것도 두 번이나—거부 의사를 밝혔음에도 요한슨의 목소리와 영화 속 대화 태도를 흉내 낸 제품을 발표해 버린 것이다.

이에 분노한 스칼렛 요한슨은 성명서를 발표했다.

지난해 9월, 나는 샘 얼트먼(Sam Altman)에게서 내 목소리를 현재 챗GPT 4.0 버전에 사용하고 싶다는 제안을 받았다. 그는 챗GPT가 내 목소리를 사용할 경우 테크 기업과 창작자들 사이에 다리 역할을 할 수 있을 것이고, 인류가 AI를 사용하게 되는 지각변동과 같은 변화를 편안하게 받아들이는 데 도움이 될 수 있을 거라고 했다. 얼트먼은 사람들이 내 목소리를 편안하게 생각할 거라고 했지만, 나는 긴 생각 끝에 나의 개인적인 이유들로 제안을 거절했다. 그러고 9개월이 지난 후, 내 친구와 가족, 그리고 많은 사람이 오픈AI가 이번에 발표한 AI 모델에서 '스카이(Sky)'가 내 목소리와 너무나 비슷하다는 얘기를 내게 해줬다.
나는 데모 영상을 직접 들어보고 놀랐고, 화가 났다. 얼트먼이 나의 가장 친한 친구들과 언론 매체가 차이를 구분할 수 없을 만큼 내 목소리와 비슷한 목소리를 사용했다는 사실을 받아들이기 힘들었다. 얼트먼은 "her"라는 한 단어만을 트윗하면서 내 목소리와 스카이 목소리의 유사성이 의도적인 것이었음을 암시했다. 내가 영화 '그녀(Her)'에서 인간과 친밀한 관계를 형성하는 보이스 챗 시스템인 사만다(Samantha)를 연기한 것을 두고 한 말이다.
요한슨이 언급한 얼트먼의 트윗
얼트먼은 문제의 데모 영상이 발표되기 이틀 전에 내 에이전트에게 연락해서 내가 거절한 결정을 재고해달라고 했다. 하지만 나의 대답을 듣기도 전에 시스템을 발표해 버렸다. 그런 오픈AI의 행동에 나는 어쩔 수 없이 변호사를 고용해 얼트먼과 오픈AI에 두 통의 편지를 쓰게 했다. 그들이 어떤 행동을 했는지 분명하게 밝히고, 스카이의 목소리를 만들게 된 정확한 결정 과정이 어떠했는지 밝히라고 요구한 것이다. 그 결과, 오픈AI는 마지못해 '스카이'의 목소리를 내렸다.
우리 모두가 딥페이크(deepfake) 문제와 초상권 보호 문제, 우리의 작업물과 정체성을 보호하는 문제로 애쓰고 있는 지금, 나는 이런 질문들에 기업이 명확한 답을 해야 한다고 믿는다. 나는 개인의 권리를 보호할 수 있는 투명성과 적절한 법이 확보되기를 기대한다.

사실 요한슨이 성명을 발표하기 이틀 전, 오픈AI는 자체 블로그에 "ChatGPT의 목소리들을 어떻게 결정했는지"를 설명하는 글을 게시했다. 그 글에서 "우리는 AI의 목소리가 특정 유명인의 뚜렷한 특징을 가진 목소리를 흉내내서는 안된다고 믿는다"라면서 "스카이의 목소리는 스칼렛 요한슨의 목소리가 아니며, 다른 전문 배우의 자연스러운 대화 목소리"라고 했다. 하지만 요한슨에 따르면 오픈AI는 두 번이나 요한슨의 목소리를 쓰게 해달라고 했다. 그렇다면 "우리는 AI의 목소리가 특정 유명인의 목소리를 흉내 내서는 안 된다고 믿는다"는 말은 명백한 거짓말이다. 그렇게 믿는 게 아니라, 거절을 당했을 뿐이다.

스칼렛 요한슨을 비롯한 많은 사람이 이번 사건을 심각하게 생각하는 이유는 헐리우드 배우들이 바로 이 문제를 가지고 길고 긴 파업을 했기 때문이고, 뉴욕타임즈를 비롯한 기업들이 오픈AI가 자사의 콘텐츠를 AI 모델을 훈련하는 데 사용했다고 소송 중이기 때문이다. 그런 상황에서 샘 얼트먼과 오픈AI는 배우의 거절 의사를 분명히 확인하고도 태연하게 배우의 목소리를 흉내 내 사용하고, 자랑스럽게 트윗까지 할 만큼 거리낌이 없다.

문제가 커지자 얼트먼은 매체와의 인터뷰에서 "요한슨 씨의 의견을 존중해서 스카이의 목소리 사용을 중지했다. 좀 더 명확하게 의사소통을 하지 못해 죄송하다"라고 했지만, 스카이 목소리를 녹음한 배우는 오픈AI가 "요한슨에게 제안하기 이전에 이미 채용한" 사람이었다고 했다.

샘 얼트먼 (이미지 출처: The Hill)

이번 일로 오픈AI가 직면한 문제는 단순히 헐리우드의 유명 배우와의 갈등이 아니다. 많은 개인과 기업이 AI가 우리의 능력을 훔쳐 가고, 그 결과로 직업까지 빼앗는 게 아닐까 걱정하고 있는 중에 그런 일을 태연하게 할 수 있음을 보여준 것이다. 간단한 웹사이트와 상냥한 태도의 CEO가 주는 이미지와 달리, 오픈AI는 돈이 몰리는 실리콘밸리에서도 가장 거대한 투자금을 빨아들이는 공룡이고 앞으로 우리의 세상을 완전히 바꾸게 될 빅테크 기업이다. 그런 기업이 세계적인 유명인의 정체성도 태연하게 가져다 사용한다면 대다수의 평범한 사람들의 정체성과 정보를 얼마나 조심스럽게 취급할까?


사족 같지만, 오픈AI의 배우 정체성 도용 시비와 별개로, 영화 속, 그리고 현실 속 AI의 역할을 이야기하지 않을 수 없다. 뉴욕타임즈의 테크 전문기자 케빈 루스(Kevin Roose)는 자신의 팟캐스트에서 2013년에 나온 영화 '그녀'가 남자 주인공이 AI와 행복하게 사는 것으로 끝나는 영화가 아니라는 점을 지적했다. 영화 속 AI는 호아킨 피닉스(Joaquin Phoenix)가 연기한 주인공에게 자기는 당신에게만 속한 존재가 아니라 수많은 다른 사람들과 대화하는 존재라면서 떠나는 영화인데, 오픈AI가 새로운 모델에 영화 속 AI 사만다를 명백하게 흉내 내면서 과연 이 영화의 결말을 얼마나 생각해 봤을지 궁금하다고 했다.

같은 신문의 영화 평론을 쓰는 알리사 윌킨슨(Alissa Wilkinson)이 영화를 보는 시각은 조금 다르다. 그는 "챗GPT가 스칼렛 요한슨의 목소리를 낼 때 우리는 무엇을 잃게 될까"라는 제목의 글에서 '그녀'는 성장 이야기(coming-of-age story)라고 했다. 주인공 남자는 힘든 시기에 자신의 필요를 충족시켜 주는 완벽한 여성(AI)과 짧은 기간 동안 만나면 상처를 치유하고 실제 일상으로 복귀한다는 게 윌킨슨의 해석이다. 윌킨슨은 더 나아가, 사만다 역시 주인공과 함께 성장한다고 말한다. AI의 수준에서나마 감정을 경험하면서 "완벽하고 순종적인 여자친구" 즉, 자신의 필요를 생각하지 않고 양보하고, 도와주는 여성이라는 (남성의) 판타지가 되기를 거부하고 독립된 존재로 성장한다는 거다. 윌킨슨과 루스가 기억하는 이 영화의 결론은 이렇게 다르지만, 두 사람이 우려하는 내용은 똑같다. 감정을 표현하는 챗GPT 비서, 여자 친구가 과연 사용자에게 유익할까?가 그거다.

윌킨슨의 설명에 따르면 '그녀'의 감독인 스파이크 존즈(Spike Jonze)는 애초에 AI 사만다의 목소리를 영국 배우 사만다 모튼(Samantha Morton)에게 맡기려고 했다. 모튼의 목소리에는 모성애와 자상함, 약간의 영국 억양이 있었고, 유령 같은 느낌이었다고 한다. 그에 반해 스칼렛 요한슨의 목소리는 젊고 열정적이었고, 감정을 풍부하게 표현한다는 점에서 요한슨으로 결정했다는 거다. 하지만 주인공이 처음 대화를 나눌 때(위의 영상)만 해도 사만다는 훨씬 단순하고 꾸준한, 예측 가능한 캐릭터였다가 주인공과 오랜 대화를 하면서 더 복잡하고 캐릭터로 성장하게 된다.

'그녀'의 한 장면 (이미지 출처: College Film & Media Studies)

문제는 현실의 AI가 과연 그렇게 되겠느냐이다. (아니, 그렇게 되는 것이 더 위험할 수 있다. 수천만, 아니 수억의 사용자들에게 영화 속 남자에게 일어난 것과 같은 일어난다면? 상상만 해도 끔찍한 일이다.) 윌킨슨은 다음과 같은 말로 글을 맺는다:

"이 영화는 관계(relationship)를 이야기하는 작품이다. 관계라는 것 자체가 복수의 캐릭터를 필요로 하고, 그들은 자기만의 필요와 욕구, 욕망이 있다. 관계 속에 있는 사람들은 시간이 지나면서 변화하고 진화하지만, 이게 항상 쉬운 방향으로 진행되는 건 아니다. 하지만 AI 가상 비서가 진정으로 수익을 내려면 사용자의 감정을 상하게 해서는 안되고, 왜 생일을 잊었느냐고 추궁해서도 안 된다. 사용자가 기분 나쁘면 언제든지 AI를 꺼버릴 수 있다.

오픈AI의 발표를 보면서 요즘 점점 더 많은 젊은이들이 가상의 존재와 관계를 형성하는 데 관심이 있다는 조사 결과를 떠올렸다. 말을 하지 않아서 그렇지, 나이가 많은 사람들도 다르지 않을 것이다. 가상의 존재가 가진 매력은 분명하다. 인간은 멋지고, 아름답고, 남을 사랑하고, 놀라운 존재이지만, 동시에 지저분하고, 냄새나고, 까다롭고, 우리를 화나게 만든다. 그러니 인간을 흉내 내면서도 우리를 실망시키지 않는 로봇과 대화하는 게 훨씬 쉽다. 적은 투자로 큰 수익을 내는 셈이다.

하지만 삶의 목적이 다른 사람들과의 관계에 있다면, 사람을 흉내 내는 AI 비서가 가진 위험을 무시하기 힘들다. 나는 우리 사회에 고독이 빠르게 확산되는 것을 AI가 해결할 수 있으리라고 생각하지 않는다. 이번 발표에서 오픈AI의 미라 무라티(Mira Murati)는 새로운 AI 모델은 사용자들이 챗GPT와 "협업"하는 과정에서 "마찰을 줄이는(reduce friction)" 것에 초점을 두었다고 했다. 하지만 어쩌면 (타인과의) 마찰에서 발생하는 열이 우리를 인간으로 만들어주는 것일지 모른다." 🦦