미디어

<미디어> 알고리즘의 그림자, 진짜 뉴스와 가짜 뉴스

마냐 2015. 1. 23. 19:39

 

 빡센 야근에 이어 종일 달린 날이라 일찍 퇴근하려는데 C가 한 번 읽어보라며 툭 던진 기사 하나에 낚였습니다어찌나 재미난지 덮었던 노트북을 다시 열고 검색을 시작했습니다기사 원문을 찾고 싶었으나 실패. <Wired> 2015 The World Trend Report 특별 한국판입니다. ‘전 세계 전문가들이 필진으로 참여곧 닥칠 미래에 대한 크고 작은 100여 가지 아이디어로 가득한 책입니다이쯤 홍보(?) 해드렸으니제가 아래에 베껴 쓴 대목에 대해 저작권 침해를 따지지 않아주시면 좋겠습니다.^^;;  <정치 선전의 스마트화>란 제목은 그다지 근사해보이지 않은데 PROPAGANDA BOTS TO PROTESTS 가 원제인지, AGENDA-BOTS 인지 하여간에ㅎㅎ 

 



Sean Gourley. 정보분석업체인가요? Quid 의 공동 창업자, 물리학자이고 정치 자문? 아주 훈훈한 청년인 듯 보이는데, 이 분 글에 홀딱 넘어갔습니다. 너무 신나고 재미있는게 아니라 당혹스럽고, 생각이 복잡해져서요. 그러나 한 번 보시죠. 제 능력으로는 원문 찾는 데도 실패하고 어쩔 수 없이 베낀 거 아닙니까. 그러나 이런 이야기를 나누는 것은 너무 재미난 일이라.... 저는 이 분 트위터 팔로잉도 시작했어요.  


자.. 그럼, 정말 빛의 속도로 따라 쓴.... ;;; 





2008년 미 국무부는 해외 원조기구인 국제개발처를 통해 쿠바에 가짜 SNS 서비스를 도입했다. 표면적으로는 공공의료나 시정 관련 이슈들을 부각시켰으나, 공작원들은 쿠바 내 잠재적 불만 세력을 대상으로 삼았다. 해당 SNS 사이트는 해시태그부터 가짜 광고까지 갖추고 있었으며, 각 유저들의 ‘정치 성향’을 데이터베이스화한 자료도 있었다. 2009년부터 2012년까지 미 국제개발처는 약 160만달러의 예산으로 이용자 4만 명을 보유한 정보 플랫폼을 조종할 수 있었다.


2011년 중동지역 군사작전을 담당하는 미 중앙사령부는 여기서 더 나아가 캘리포니아의 한 업체에 온라인 인물정보 관리 서비스 개발을 의뢰했다. 온라인 프로필부터 그럴듯한 배경 정보까지, 모든 것을 포함하는 서비스였다. 이 소프트웨어를 통해 미국의 공작원들은 10개의 가짜 프로필을 사용할 수 있었다. 발각될 염려 없이, 세계 어디서든 정치 공작을 수행했다.


 알고리즘은 뉴스를 읽는 것에서 나아가 뉴스를 작성한다.. 알고리즘을 통해 개인별 맞춤형 내용이 수록되며 독자의 사상을 바꾸거나 행동을 유발하도록 개발된다. 이미 멕시코의 마약카르텔은 라스 초아파스 지역에서 기자가 살해된 사건에 대해, 갱단이 고용한 청부살인자와 무관한 일인 것처럼 소셜 미디어 봇으로 여론조작을 한 바 있다.  1천만이 넘는 봇이 있으며 그 잠재적 활용 규모는 거의 무한하다. 해커 포럼에서 1천 개당 5~200달러에 거래되는 봇은, 그것이 얼마나 사람과 비슷한지에 따라 가격이 매겨진다.


러시아의 정보당국 역시 3천만 루블을 들여, 대규모 SNS 네트워크 상에서 자동적으로 정보를 게시하기 위한 특수 소프트웨어 개발에 나섰다. 또한 2015년에는 남미지역 정치 여론을 조작하기 위해 개발한 미국의 고도 정부 연구 프로제트의 실전 실적이 드러날 것이다.


아직은 시작에 불과하다. 2015년에 개발되는 봇은 지능을 흉내 내는 차원의 비교적 간단한 발견학습 Heuristic 기법에 기반한다. 그러나 보다 미래에는 게시된 내용에 대한 반응과 효과에 따라 내용과 게시물을 진화시킬 수 있는 유전적 Genetic 알고리즘에 기반한 봇들이 등장할 것이다.

2016년 미국 대선 즈음에는 미국 대중을 상대로 투입될 것으로 예상되며, 비교적 테크놀로지에 친숙한 민주당 뿐만 아니라 다른 정치 세력들도 활용할 것이다.


이 기술이 먹히는 이유는, 사람은 본인이 생각하는 것 이상으로 귀가 얇기 때문이다. 페이스북에서 최근 실시한 실험에서 알 수 있듯이, 이용자가 읽도록 알고리즘이 골라준 내용에 따른 이용자의 감정 반응 조작이 가능하다. 또한 MIT의 한 연구진은 게시물이 올라가자마자 추천수를 조작하면 해당 게시물에 대한 공감 정도를 25%나 높일 수 있다고 밝혔다. 반대로 문제가 없는 기사라도 초반에 비추천 숫자를 조작해 인기 없는 게시물로 만들 수 있었다. 2015, 정치 선전 봇들은 이러한 연구 결과에 기반해 뉴스피드를 조작할 것이다. 자동화된 친구들은 주어진 선전 목적에 부합하는 기사들을 리트윗하고 좋아요를 누를 것이다.


봇은 여론조작이 진행 중인지 판별하는데도 활용될 수 있다. 우크라이나 상공에서 격추된 말레이 항공 MH17편에 대한 댓글을 살펴보면, 미국과 러시아의 매체들이 세계인에게 서로 상반된 주장을 믿도록 노력했다는 걸 알 수 있다. 알고리즘을 통해 러시아와 미구그이 주류 매체에서 게시되는 내용을 모니터링하면 논조가 차이 나는 부분의 식별이 가능하다. 마찬가지로 위키피디아 같은 사이트에서 테러리스트라는 문구를 우크라이나 군으로 대체하는 등 하루에도 수백만 번 등록되는 수정사항들을 모니터링해 조작의 증거를 찾아낼 수도 있다. 물론 이것을 통해서도 어느 쪽 말이 맞는지는 알 수 없으며, 결국에는 사람의 판단이 필요할 것이다.


일단 국정원 댓글 사건이 떠오르지 않으신지. 저는 십알단 생각도 했습니다. 이게 아직은 십알단이지만, 전략 자체는 미국 정부가 해온 일과 유사합니다. 물론 미국 정부는 자국내에서는 이런 일 않는다고 늘 강조하지만, 그거야 알 수 없고. 수천 수만 댓글이 무슨 소용이 있겠냐는 둥, 논란이 많았지만, 이건 어쩌면 이미 글로벌 트렌드? 그나마 우리나라 국정원은 세금으로 많은 이들에게 일자리를 제공했다면, 이제는 propaganda bots 의 시대가 이미 와버렸나 봅니다. 물론 세금은 이제 bots 개발자들에게 쓰일 수도 있겠지만.

 

알고리즘 뉴스의 시대, 로봇이 작성하는 기사에 대해 혁신을 축으로 하는 다양한 전망이 나왔지만, 그것은 기술 중립적 이야기였습니다. 혹은 내게 필요한 맞춤형 정보를 딱 골라서 찾아주는 유용하고 스마트한 알고리즘 추천의 이야기였죠. 저런 방식으로 조작되고 왜곡될 수도 있는 미디어 트렌드 속에서 기술은 어떤 모습을 보여줄지 기대와 우려가 교차합니다. 위키피디아가 정파적 이해관계로 계속 수정된다는 것은 새롭지 않은 뉴스이지만, 하루에 수백 만 번 바꿔대는 봇들의 전쟁은 다소 차원이 달라 보입니다. 더구나 결론은…. “사람의 판단이 필요하다라는 것으로 돌아간다니, 어마어마한 기술의 시대에 IT 기업의 CTO,  물리학자의 제언으로는 아이러니한 측면이 있습니다.  


문득 또 생각합니다. 뉴스 편집이 알고리즘으로 대체되는 부분이 늘어날 가능성이 높아 보입니다. 모바일에서는 특히 이용자들에게 맞춤형 추천 콘텐츠가 주류를 이룰 것이라는 예측이 지배적입니다. 다만 이것저것 다른 측면도 따져본다면 우리는 어디쯤에서 중심을 잡아야 할까요.  스마트한 시대에 점점 스마트하지 않으면 눈 뜨고 코 베일 상황이라는건 또 어찌할까요. 트위터나 페이스북, 소셜 미디어 플랫폼들은 앞으로 점점 심각해질 불신의 딜레마에서 벗어나기 위해 또 어떤 알고리즘을 만들어내야 할까요. 기술이 기술의 함정을 극복할 것인지, 사람이 어디까지 현명해질 것인지. 기술 혁신의 시대, 생각할 꺼리는 더 늘어나고, 더 심각합니다. 너무나 흥미로워서 지금 가슴이 콩닥거리는 건지, 진짜 당황한 건지, 저도 잘 모르겠어요.