아마존이 인수한 트위치(Twitch)는 게임 방송으로 시작해서 20대 이하에서 큰 인기를 모으고 있지만 근래 들어 이 플랫폼에서 자주 나타나는 '증오 습격(hate raid)'이 문제가 되고 있다. 원래는 그날의 방송을 끝내는 스트리머(streamer)가 듣고 있던 팔로워와 시청자들에게 다른 진행자의 스트리밍을 소개, 추천해서 그리로 트래픽을 밀어주는 좋은 의도로 만들어진 기능이지만, 한국의 소셜미디어와 온라인에서 종종 보게 되는 '좌표찍기' 형태로 사용되면서 전혀 다른 방향으로 작동하게 된 거다.

그런데 이런 증오 습격은 봇(bot)을 사용한 무수한 가짜 계정들이 동원되면서 한국식 좌표찍기와는 차원이 다르게 커졌다. 그리고 대개 그렇듯 이런 공격의 대상은 소수자 집단이고, 트위치의 경우 성 소수자 스트리머들이 집중적인 공격을 받고 있다고 한다. 이 문제를 지적한 유명 스트리머/유튜버인 데븐 내쉬는 트위치가 이 문제를 해결하지 못하는 이유를 이렇게 설명한다. "가짜 계정을 손쉽게 만들지 못하도록 절차를 복잡하게 하면 되겠지만, 그런 장치는 가입자의 증가를 늦추게 된다." 그의 경험에 따르면 가입 절차에 한 페이지가 추가될 때마다 잠재 가입자의 30%가 포기하고 떨어져 나간다고 한다. 많은 사이트와 서비스의 빠른 가입자 증가 뒤에는 (가령 소셜 로그인처럼) 과거와 달리 손쉬운 가입 방법이 존재한다.

많은 사용자들이 '증오 습격' 해결에 나서지 않는 트위치에 항의해 하루 보이코트를 선언하기도 했다.

자, 그럼 기업은 여기에서 선택을 해야 한다. 커뮤니티를 해치고 소수자들을 공격하는 것을 막기 위해 가입자의 증가세를 막을 게 분명해 보이는 방법을 사용할 것인가, 아니면 주주들에게 성과를 보여주기 위해 일부 사용자들이 당하는 온라인 괴롭힘을 방치할 것인가? 이건 트롤리 딜레마와 같은 막연한 사고실험이 아니다. 당장, 그리고 매 순간 경영자가 내려야 하는, 피할 수 없는 선택이다. 오늘 소개할 월스트리트저널의 '페이스북 파일' 세 번째 기사가 바로 그 문제다.

3. 페이스북의 분노유발 알고리듬

2017, 18년 즈음 실리콘밸리 테크 기업들 사이에 'Time Well Spent(잘 쓴 시간)'이라는 말이 유행했었다. 이는 구글의 '디자인 윤리학자'로 일했던 경력으로 유명한 트리스탄 해리스(넷플릭스의 화제작 '소셜 딜레마'에도 등장한다)가 들고나온 개념으로, 디지털 플랫폼의 알고리듬이 사용자의 주의를 빼앗은 결과 많은 사람이 온라인에서 시간을 낭비하게 되는 문제를 해결하자는 것이 그 핵심이다.

비즈니스나 PR에 적용할 만한 트렌드에 민감한 마크 저커버그는 2018년에 페이스북이 이 아이디어를 받아들여서 사용자들이 의미 있는 시간을 보내도록 애쓰겠다는 선언을 했다. 아주 오래된 일이 아니기 때문에 기억하는 사람들이 (특히 미디어 업계에) 많을 거다. 트리스탄 해리스가 말한 '잘 쓴 시간'의 개념은 플랫폼 기업들이 측정 가능한 사용자들의 행동과 거리가 멀었지만, 어쨌거나 저커버그는 그걸 측정해서 사람들이 페이스북에서 시간을 보내고 만족할 수 있게 하는 것으로 생각했다.

문제는 사람들의 만족도를 어떻게 측정하느냐다. 경제 발전이나 삶의 질, 행복지수와 마찬가지로 잘 쓴 시간이라는 개념도 결국 수치를 통한 조작적 정의(operational definition)로만 측정이 가능하다. 페이스북은 자사의 플랫폼에서 사용자들이 미디어 기업이 제작한 영상 등을 "좀비처럼" 지켜보는 시간이 늘어나는 것을 부정적으로 생각하고, 반대로 사람들 사이에 '좋아요'를 비롯한 '반응(reaction)'과 '댓글,' '공유'가 활발하게 일어나는 것을 바람직한 것으로 규정하고 있다고 한다. 이런 활동이 늘어나야 소셜미디어 세계 1위 기업으로서 페이스북의 미래가 있다는 것.

그런데 페이스북 엔지니어들은 2017~18년경에 문제를 발견했다. 사람들이 미디어 기업들이 만든 콘텐츠를 지켜보는 시간이 늘어난 반면, 페이스북이 중요하게 생각하는 상호교류가 떨어지는 양상이 분명했다. 페이스북에서는 이를 아주 심각하게 받아들였고, 자체적으로 만든 MSI (meaningful social interaction) 지수를 높이기 위한 방법을 찾았다. 물론 그 방법은 알고리듬을 바꾸는 것이었다. 사용자들이 페이스북에 하는 반응에 주는 내부적인 점수의 가중치를 바꿔서 페이스북이 원하지 않는 콘텐츠의 순위를 떨어뜨리고, 원하는 콘텐츠의 순위를 높여서 사용자들이 후자를 더 많이 보고 반응하게 유도했다.  

사용자에게는 보이지 않지만 페이스북 내부에서는 사용자들의 반응에 가중치를 주고, 종종 바꾼다.

그렇게 바꾼 후에 페이스북은 원하는 결과를 얻었다. 떨어지던 사용자들 간의 '교류'는 다시 늘어났고, 반대로 대형 미디어가 생산한 콘텐츠를 소비하는 시간은 줄어든 것이다. 사람들이 결정에 관여할 수 없는 페이스북이 전 세계 인구의 1/3이나 되는 사람들의 행동을 이렇게 알고리듬의 조작을 통해 바꿀 수 있다는 사실만도 심각한 문제이지만, 소셜미디어에 목숨을 거는 온라인 매체들에게는 비상이 걸렸다.

새 알고리듬이 악화시킨 것

버즈피드의 조나 페레티는 페이스북의 경영진에게 이메일을 보내서 이 문제를 지적했다고 한다. 페이스북의 알고리듬 변화로 인해 사람들을 분노하게 만드는 콘텐츠들이 상위로 올라가고, 자신들이 생각하기에 좋은 내용은 보이지 않는다는 것이 버즈피드의 내부 분석이었다. 이런 지적을 바이럴에 목숨을 거는 버즈피드가 했다는 사실이 주는 아이러니는 잠시 접어두고, 이 매체가 증거로 제시한 기사를 보자. 버즈피드에 따르면 2018년 9월에 발행한 "백인이면 대부분 사용한다고 스스로 인정하는 21개 표현"이라는 기사가 페이스북에서 큰 인기를 얻었다. 그런데 그 '인기'라는 건 알고 보면 페이스북에 올린 그 기사 밑에서 사람들이 기사와 기사에 등장한 표현을 두고 벌인 인종 간의 싸움이었다.

사실 이 기사는 소셜미디어에 등장한 표현들을 모아놓은 것에 불과하다.

버즈피드 스스로 이런 기사를 발행해놓고 문제가 있다고 지적하는 게 우습게 들릴 수도 있지만, 결국 클릭 수를 따라가게 되어 있는 현재의 미디어 지형에서 페이스북이 클릭을 쉽게 받을 수 있게 가중치를 높인 콘텐츠, 포스트가 이렇게 논쟁적인 내용인 것은 바람직하지 않다는 주장은 맞다. (다시 말하지만, 이런 이야기를 버즈피드의 조나 페레티가 했다는 아이러니는 현 상황의 심각성을 보여준다). 그리고 페레티의 경고는 페이스북에서 현실로 드러나고 있었다. 페이스북 내부 보고서에서는 "민주주의에 미칠 장기적인 영향을 염려"한다는 내용이 있었다.

이 문제를 발견한 페이스북 직원들은 이를 수정하기 위한 방법을 만들어냈다. 그들의 제안 중 눈에 띄는 것이 "공유 버튼을 없애자"는 것이었다. 조나 페레티에 따르면 "허위정보와 해악, 폭력성이 담긴 콘텐츠는 유독 재공유(reshare)된 포스트에 많이 등장"하는데, 페이스북의 엔지니어들은 이 버튼만 없애도 페이스북이 퍼뜨리는 문제 콘텐츠는 획기적으로 줄일 수 있다고 생각했다. 하지만 저커버그는 페이스북 사용자들의 MSI에 조금이라도 영향이 가는 수정안은 끝내 받아들이지 않았다고 한다. 기업의 수익과 건강한 민주주의 유지 사이에서 수익을 선택한 것이다.

저커버그의 알고리듬 포장하기

하지만 저커버그가 페이스북의 알고리듬이 민주주의 사회를 망가뜨린다는 내외부의 지적에도 수익을 선택한 것보다 어쩌면 더 가증스러운 일은 그가 이걸 마치 페이스북이 이윤을 포기하고 희생하는 것처럼 포장했다는 사실이다. 그는 새로운 알고리듬을 두고 "분명하게 말씀드릴 수 있는 것은 이번에 도입하는 (알고리듬) 변화로 사람들이 페이스북에 머무는 시간이 줄어들고, 사용자들의 활동(engagement)이 줄어들 것으로 보인다는 겁니다"라고 말했고, 이를 발표한 한 저커버그의 페이스북 포스트는 무려 22만 4천 개의 '좋아요'를 받았다.

저커버그는 더 나아가 "하지만 우리가 옳은 일을 하면 우리가 사는 커뮤니티에 좋고, 사업에도 장기적으로 이익이라 믿는다"고 했다. 그러나 월스트리트저널에 따르면 내부 교육자료에 따르면 2018년 알고리듬의 변화는 사용자들의 활동이 줄어들었기 때문에 만들었다고 설명하고 있다.

기사에 따르면 2019년 봄에 페이스북 데이터 사이언티스트들은 가짜 뉴스의 바이럴 확산을 막는 방법을 제안했고, 이 제안서에는 논쟁적인 콘텐츠에 가중치를 두어 확산시키는 "다운스트림 MSI"라는 알고리듬을 바꾸자는 이야기가 나온다. 결국 저커버그도 한발 물러나 사회(civic)와 건강(health, 의료)에 관해서는 이런 변화를 받아들였지만, 다른 영역으로도 확장하는 것은 거절했다. 내부자에 따르면 "페이스북에서 사용자의 활동을 떨어뜨리는 변화는 받아들일 수 없다"는 게 이유였다고 한다.

이 기사의 내용에 해당하는 월스트리트저널의 팟캐스트 에피소드도 추천한다. 다만 WSJ이 번호를 잘못 붙였는지 이 에피소드가 4부로 등장하는데, 세 번째 기사가 맞다. (네 번째 기사의 팟캐스트는 3부라고 붙어있다).