중국의 AI 불장난 ②
• 댓글 2개 보기무모한 야망
(앞의 글에서 이야기한 것처럼) 중국에서는 실험적인 새로운 기술들이 대체로 위험성이 없는(risk-free) 것으로 받아들여진다. 게다가 2030년까지 중국이 "세계 인공지능 혁신의 중심"이 되겠다는 야망으로 전력 질주를 하겠다고 공언했다.
중국이 AI 분야에서 미국을 추월하겠다는 목표는 시진핑 총리가 2015년에 "중국제조(Made in China) 2025" 전략을 선언한 이래로 중국 공산당이 추진하는 사업의 우선순위에 있다. 그 이후로도 AI에 대한 강조는 중국에서 나온 다양한 문서와 연설에서 반복적으로 나타난다. AI는 중국군(인민해방군) 현대화 전략의 핵심이 되었고, 중국 정부의 국민 감시, 억압, 통제 시스템에서 갈수록 중요한 역할을 하고 있다. 이렇듯 AI가 중국에 중요한 기술이 되자 중국 정부는 매년 수백억 달러를 여기에 투자하고 있고, 방대한 첩보망을 동원해서 외국 기업의 기밀 기술을 훔치려 하고 있다.
이런 노력은 성과를 내고 있다. 우선 중국은 세계 어느 나라보다 많은 최고 수준의 AI 엔지니어를 배출하고 있다. 2위인 미국보다 45% 많은 숫자다. 뿐만 아니라 AI 연구 분야에서 나오는 고급 논문 역시 그 숫자에서 미국을 추월해서, AI 관련 세계 학술 저널들에서 중국에서 나온 논문의 피인용수는 전체의 30%로 (2021년 기준) 미국 논문 피인용 수의 두 배에 달한다. 중국은 올해(2023년) 중으로 피인용 수 기준으로 최상위 1%의 AI 논문 숫자에서도 미국을 추월할 것으로 예상된다. "현재의 추세가 지속된다면 중국은 앞으로 10년 안에 AI 분야에서 미국을 추월할 만한 힘과 인력, 야망을 갖고 있다"라는 게 미국 인공지능국가안보위원회(NSCAI)의 경고다.
이론가들은 AI 경쟁이 "바닥치기 경쟁(race to the bottom)"을 촉발할 것을 오래전부터 우려해 왔다. 하지만 강대국 간의 경쟁에서 이미 선두를 유지하고 있는 국가와 야심 찬 도전자는 위험회피(risk aversion)에 대한 인식이 크게 다르다. 후자의 경우 힘의 균형을 이루기 위해 위험을 감수하려는 의지가 훨씬 강하다.
중국이 발전을 서두르려는 욕심에 재난을 부르는 일은 과거에 이미 일어났다. 중국의 지도자 마오쩌둥은 소위 대약진 운동을 통해 농장을 집단화하고, 공업 발전에 사용하기 위해 농기구를 녹이고 철강 생산을 증대하려다가 중국을 인류 역사상 최악의 기근에 빠뜨렸다. 그 결과 1959년부터 1961년 사이에 약 3,000만 명이 굶어 죽은 것으로 추산된다. 또한 인구 증가를 멈추기 위해 1979년에 시작한 한 자녀 정책(2015년에야 두 자녀를 허용하도록 바뀌었다)으로 강제적인 임신 중지와 영아 살해가 일어났고, 남성 인구가 여성보다 약 3,300만 명 더 많은 남녀 인구의 불균형이 발생했을 뿐 아니라, 전국적으로 심각한 인구 고령화의 위기를 낳았다.
이런 예와 비교하면 전국적인 문제는 아니지만, 1990년대 중국이 상업 위성 발사 산업을 육성하기 위해 서두르다가 1996년 한 로켓이 마을에 떨어지기도 했다. 사망자의 숫자는 알려지지 않았다. 월스트리트저널의 탐사 보도에 따르면 중국이 일대일로(一带一路) 프로젝트의 일환으로 전 세계에 건설한 수력발전소, 주택단지, 학교 등은 부실 공사의 결과로 금이 가고 무너지고 있고, 그 결과 가뜩이나 가난한 나라들에게 재정적으로 큰 부담이 되고 있다.
일상화된 은폐
AI 분야에서 미국에 앞서려는 중국의 노력 때문에 발생한 위기는 아직 없다. 하지만 중국의 전례를 통해 판단하건대, 그런 위기가 발생할 경우 중국 정부의 대응은 재난을 부를 것이다. 권위주의 국가들은 비상사태를 제대로 관리하지 못하고, 사고를 큰 재난으로 키우는 경향이 있다. 이미 발생한 사고를 최악의 결과로 발전시키지 않으려면 이상 징후, 특히 나쁜 소식을 암시하는 이상 징후를 초기에 인지해야 한다. 하지만 권위주의 정권들이 힘들어하는 게 바로 이거다. AI로 인한 위험이 현실화하게 된다고 해서 대응이 다를 것으로 기대할 이유가 없다.
중국에서 우려스러운 사태가 발생하게 되면 공산당의 당직자들로서는 나쁜 뉴스를 윗선에 보고해서 자신의 입지를 불안하게 만들기보다는 문제가 되는 정보를 억누르는 게 자신에게 유리하다. 재앙으로 나아가는 악순환은 그렇게 시작된다. 마오쩌둥의 대약진(大跃进) 운동이 좋은 예다. 농장의 집단화와 농기구를 녹이는 행동이 위기로 가는 발판을 마련했다면, 흉작을 키워서 궁극적으로 대량 기아사태로 만든 것은 관료들이 위험 신호를 은폐한 일이다.
대약진 때와 같은 패턴이 현재 중국에서 무서우리만큼 자주 일어난다. 1990년대 HIV 바이러스에 감염된 피를 팔거나 수혈받아서 최소 100만 명의 어른과 아이들이 HIV 바이러스에 감염될 때까지 정부 내 얼마나 많은 단계에서 이런 은폐가 일어났을지 생각해 보라. 재난이 발생할 것 같다는 초기 보고서가 올라와도 지방 관료들은 자신의 자리를 보전하기 위해 이런 증거를 수년 동안 악착같이 은폐했다. 그런 관료 중에는 정보를 은폐한 결과 어떤 일이 일어났는지 알려진 후에도 승진한 사람이 많다.
2002년에 치명적인 사스(SARS) 바이러스가 중국에 퍼졌을 때도 똑같았다. 이 바이러스가 전 세계에서 8,000명 이상을 감염시키고 774명을 죽게 했는데도 중국 정부는 이를 4개월 동안이나 숨겼다. 이 일이 있은 후 사스 때와 같은 은폐가 다시 일어나지 않도록 하기 위해 8억 5,000만 달러를 들여서 공공 의료 시스템을 개선했지만 코로나19 팬데믹이 일어나자 중국 정부는 같은 행동을 반복했다. 2019년 12월, 우한에서 첫 번째 코로나 환자가 발생한 후부터 중국이 2020년 1월 20일에 이 바이러스가 사람들 사이에 전파될 위험이 있음을 인정하기까지 중요한 초기 대응 시간을 놓쳤다. 중국이 이 사실을 인정할 때까지 700만 명이 우한에서 다른 지역으로 이동하며 바이러스를 중국 전역, 그리고 전 세계로 퍼뜨렸다.
코로나19 팬데믹 동안, 그리고 그 이후에도 중국 정부는 이 바이러스에 관한–사람들을 살릴 수 있는–중요한 정보를 알리려는 의사와 언론인들을 괴롭히고 구금했다. 그러면서 세계보건기구(WHO)에는 거짓말을 해서 팬데믹 초기에 WHO가 세계에 잘못된 정보를 전달하게 했고, 그 결과 많은 사람이 목숨을 잃었다. 지금까지도 중국 정부는 이 바이러스의 발원지를 확인하는 데 필요한 투명성 제공을 거부하고 있다. 어쩌면 이 바이러스 역시 중국의 첨단 기술과 관련한 사고일지 모른다.
권위주의 시스템
중국에서 AI와 관련한 재난의 발생 가능성에 대해 회의적인 사람들은 중국 정부가 AI 규제에 비교적 열린 태도를 보이고 있음을 지적하거나, 중국이 정교하고 위험한 능력을 갖춘 AI를 만들기에는 아직 미국에 기술적으로 뒤처져 있다고 말한다. 하지만 중국의 인터넷을 지배하는 룰과 마찬가지로 중국 정부의 AI 관련 법안들은 기업들이 중국 정부의 말에 복종하고, 서구와 경쟁하는 데만 초점이 있다. 그리고 이 법들은 정권을 위협하는 정보를 억제하도록 설계되었다.
최첨단 AI 테크놀로지에서는 미국이 앞서는 것이 사실일 수 있지만, 다른 나라(기업)의 시스템을 잘만 바꾸면 아주 위험하고 예상치 못한 성능을 발휘할 수도 있다. 가령 화학 실험을 계획하고 실행하는 능력을 향상시키기 위해 AI 모델들을 결합하는 게 그렇다. 발전된 AI를 훔쳐다가 복사, 복제한 후 이를 조금 뜯어고쳐 안전장치를 제거하는 일은 어렵지 않다. 그리고 중국의 테크 업계가 잘하는 게 있다면 그건 다른 기업이 만들어 낸 것을 빨리 배워 최대의 효과를 내는 것이다. 이 전략은 지난 수십 년 동안 중국의 성장을 이끈 엔진이었다.
AI로 인한 재난 발생 가능성이 중국에만 있는 건 아니다. 새롭고 강력한 기술들이 그렇듯, 재난은 어디에서나 일어날 수 있고, 작은 규모의 사고나 기술의 오용은 전 세계에서 자율주행 자동차의 사고, AI 음성 복제 사기, 그리고 안면 인식 기술을 사용하는 경찰이 사람을 착각하는 등의 형태로 꾸준히 일어나고 있다. 특히 미국은 새로운 AI 기술을 선도하고 있기 때문에 큰 피해로 이어질 사고 가능성이 높은 나라다. 따라서 미국의 기업과 정부는 자체 AI 안전 대책을 강화하는 것이 현명할 것이고, 많은 의원이 이를 깨닫고 있다.
하지만 체르노빌 사고부터 코로나19까지의 역사가 보여주는 것은 재난의 위험이 가장 심각한 곳은 권위주의 국가들이라는 점이다. 이런 나라에서는 초기의 실수, 사고를 악화시키는 체계적 실수(systemic missteps)를 하게 될 가능성이 훨씬 더 크다. 기술적 위험을 대수롭지 않게 생각하는 중국의 태도, 중국 정부의 무모한 야망, 그리고 위기관리 부실은 고조되고 있는 AI의 위험과 맞물려 대형 사고를 내는 쪽으로 가고 있다.
미국은 다양한 정책을 통해 이런 위험을 완화하는 데 도움을 줄 수 있다. 이런 위험을 인식한다면 산업계와 정부는 쉽게 무기화할 수 있는 AI 연구가 상업적인 통로를 통해 중국으로 흘러 들어가는 것을 더욱 적극적으로 제한할 수 있다. 중국이 합작기업이나 투자를 통해 기술을 이전받는 전략도 제한의 대상이 되어야 한다.
미국은 외교를 통해 전 세계적인 AI 안전 표준 확립을 도울 수도 있다. 미국이 국제 사회와 힘을 합쳐 전 세계 AI 연구소에서 등장할 수 있는 잠재적 위험 요소를 모니터링할 수 있고, 다른 곳으로 파급될 수 있는 문제가 발생할 경우에 대비한 비상 계획을 수립할 필요도 있다. 역사적으로 이런 선례가 있다. 미국은 중국의 생물 실험실과 원자로, 우주 활동에서 위험한 행동이 사고로 이어질 위험을 모니터링해 오고 있는 것으로 알려져 있다.
하지만 가장 첫 단계는 위험(위협)의 우선순위를 제대로 정하는 것이다. 20세기 냉전 때도 그랬던 것처럼 무기 경쟁이나 기술 경쟁은 많은 주목을 받는다. 하지만 안전 위협 역시 관심을 기울여야 하고, 권위주의 정권의 경우는 더욱더 그렇다. 그리고 체르노빌과 같은 참사가 일어나는 것을 막기 위해서는 중국의 AI 재난 위험을 진지하게 다루는 것이 최우선 의제가 되어야 한다.
무료 콘텐츠의 수
테크와 사회, 문화를 보는 새로운 시각을 찾아냅니다.
유료 구독자가 되시면 모든 글을 빠짐없이 읽으실 수 있어요!
Powered by Bluedot, Partner of Mediasphere