일러스트 허인회
일러스트 허인회

지난 5월 9일 세계 최대 검색사이트 구글과 국내 최대 포털사이트 네이버가 각각 뉴스 개편안을 내놨다. 구글의 순다 피차이 CEO는 미국 샌프란시스코에서 열린 세계 최대 개발자 콘퍼런스 ‘구글 I/O’에서 올해 구글의 계획과 ‘인공지능 퍼스트’에 대해 설명했다. 비서 서비스인 구글 어시스턴트, 지도 서비스인 구글 맵에 인공지능을 덧붙여 발전시킬 것이라고 발표하면서 그가 따로 강조했던 것이 구글 뉴스였다. 사용자가 정보를 입력하지 않아도 알아서 인공지능이 ‘추천할 만한 뉴스’를 정해 알려주고 정보를 정리해주는 서비스를 제공하겠다는 것이다. 순다 피차이 CEO는 “뉴스 역시 AI가 적용될 수 있는 분야”라면서 “지금과 같이 정보 과잉의 시대에는 질 좋고 신뢰할 만한 정보를 전달하는 것이 중요하다”고 그 배경을 밝혔다.

같은 날 네이버 역시 뉴스에 인공지능 추천 서비스를 강화하겠다고 밝혔다. 편집자가 직접 편집하는 뉴스 말고 인공지능 알고리즘을 통해 사용자에게 맞춤형으로 제공되는 뉴스 서비스를 확대 개편해 제공하겠다는 것이다. 한성숙 네이버 대표는 “구글도 뉴스 추천 서비스를 강화하는데 네이버도 경쟁력 차원에서 해야 한다고 봤다”고 발표 배경을 밝혔다.

그러니까 뉴스 추천 서비스는 검색엔진이 공통적으로 지향하는 미래의 방향이라고 볼 수 있다. 뉴스만이 아니다. 페이스북이나 인스타그램 같은 SNS 앱에 접속해보자. 친구들과의 일상적인 이야기 가운데 특정 제품이나 서비스를 홍보하는 광고가 등장한다. 하지만 사용자마다 다른 광고가 나타난다. 평소 패션에 관심이 많아 패션 쇼핑몰을 자주 접속했던 사람이라면 쇼핑몰 광고가 보인다. 얼마 전 아이를 낳은 사람이라면 유아용품 광고가, 여행을 계획 중이라면 여행사 광고가 뜬다. 동영상 스트리밍 서비스 넷플릭스를 열어보자. 모든 사람에게 다른 메인 화면이 보인다. 평소 미국 드라마를 자주 봤던 사람에게는 미국 드라마 위주로 배열된 화면이, 액션영화를 좋아했던 사람이라면 액션 영화로 채워진 화면이 보일 것이다.

이건 사실 편리한 일이다. 넷플릭스에 등록된 수만 편의 콘텐츠를 일일이 사용자가 확인해 선호에 맞게 저장하는 일은 불가능하다. 그렇다고 해서 콘텐츠를 추천받기 위해 자신이 좋아하는 영화 장르와 감독, 배우 같은 정보들을 일일이 입력하는 것도 귀찮은 일이다. 넷플릭스처럼 기호에 맞게 알아서 콘텐츠 추천받기를 원하는 소비자가 지금은 더 많다.

뉴스 서비스의 진화 방향도 같은 맥락으로 설명할 수 있다. 하루에도 수만 건 쏟아지는 뉴스 속에서 내가 읽기 싫은 뉴스를 일일이 골라내고 읽을 만한 뉴스를 찾는 것은 피곤한 일이다. 구글이나 네이버같이 가능한 오래 사용자를 붙잡아 둬야 하는 콘텐츠 제공자 입장에서는 사용자 맞춤 정보를 제공하는 것이 매우 중요한 문제가 됐다.

보통 정보를 ‘필터링(Filtering)한다’고 표현한다. 많은 정보 중에 사용자가 필요로 할 만한 정보만 골라주는 것을 일컫는다. 얼마 전까지만 해도 필터링 기술은 사용자가 예측 가능한 정도, 사용자의 관여가 필요한 수준에 그쳤다. 그러나 불과 몇 년 사이 필터링은 급속도로 발전했다. 가장 핵심적 기술인 인공지능의 발전으로 인한 것이다. 지금은 인터넷상에서 정보가 제공되는 모든 분야에서 인공지능이 정보를 필터링해 전해줄 수 있을 정도다. 그 배경을 서봉원 서울대 융합과학기술대학원 교수의 설명을 통해 따라가보자.

필터링된 정보가 사용자를 가둬버리다

서봉원 교수는 가장 기본적인 필터링 기술로 두 가지를 꼽았다. 협업 필터링(Collaborative Filtering·CF)과 콘텐츠 기반 필터링(Content-based Filtering·CB)이다. 협업 필터링이란 기존의 많은 사용자가 했던 행동을 분석해 다른 사용자에게 정보를 추천하는 방식이다. 예를 들어 쇼핑몰에서 자주 볼 법한 것인데, ‘이 상품을 고른 고객이 선택한 다른 상품’을 추천해주는 것이 협업 필터링에 의한 서비스다. 바지를 고른 사람 중에 티셔츠를 함께 고른 사람이 많았으니, 어떤 사용자가 바지를 장바구니에 담았다면 ‘티셔츠도 함께 보세요’라고 추천해주는 방식이다. 반면 콘텐츠 기반 필터링은 콘텐츠 자체를 분석해 추천 정보를 만들어내는 알고리즘이다. 예를 들어 음악 추천 앱에서 한 곡의 음악적 특성을 분석해 다른 사용자에게 추천하는 식이다.

이런 기본적인 필터링은 여러 방향으로 변용돼 발전하고 있다. 대표적인 동영상 스트리밍 서비스 넷플릭스만 봐도 협업 필터링을 발전시킨 모델 기반 협업 필터링(Model-based Collaborative Filtering)으로 전 세계 1억2500만명의 이용자를 끌어모았다. 넷플릭스는 1억2500만명의 사용자에게 각각의 취향에 맞는 1억2500만개의 메인 화면을 제공한다. 모두가 자신에게 맞는 서비스를 이용할 수 있는 세계, 이른바 ‘개인화된 세계’가 눈앞에 펼쳐지는 상황이다.

개인화된 세계는 인공지능의 발전으로 더욱 정교해지고 있다. 이세돌 9단과 바둑 경기를 펼친 인공지능 ‘알파고’로 유명해진 ‘딥러닝(Deep Learning)’ 기술이 그중 하나다. 100억개가 넘는 인간의 뉴런을 모방해 만든 딥러닝 알고리즘을 이용하면 정확히 사용자에게 맞는 정보만을 제공해줄 수 있다.

이 추천 알고리즘, 즉 필터링이 만들어내는 인터넷 세계는 지금까지와는 좀 다를 것이다. 바로 얼마 전까지만 해도 인터넷 세상에서는 특정 성향의 사람들이 특정 정보만을 취득하면서 생기는 양극화 현상이 문제가 됐다. 미국의 법학자 캐스 선스타인은 이를 두고 ‘에코체임버(Echo Chamber)’라는 용어로 설명했다. 직역하자면 ‘메아리 방’이라는 뜻이다. 에코체임버는 특정 성향의 개인이 자신의 입맛에 맞는 콘텐츠만 소비하고, 인터넷 사이트 역시 그 성향의 사용자에게만 매력적인 콘텐츠를 계속 제공함으로써 서로 간의 메아리만 들을 수 있는 확증편향 상황을 의미한다. 이 에코체임버가 야기하는 사회는 양극화된 사회다. 서로 반대되는 이야기는 듣지 않고 자신의 말만 맞다고 우기는 것이다.

그러나 개인화된 콘텐츠는 지금까지와 다른 현상을 불러온다. 미국의 시민단체 무브온(Move on)의 이사장인 엘리 프레이저가 이름을 붙인 ‘필터버블(Filter Bubble)’ 현상이다. 간단하게 말해 사용자에게 맞게 필터링된 정보만이 마치 거품(버블)처럼 사용자를 가둬버린 현상을 말한다. 관심 없는 정보, 싫어하는 정보는 저절로 걸러지고 사용자가 좋아할 만한 정보만이 제공되면서 알고리즘이 만들어낸 정보에만 둘러싸인 모습이다. 앞서 말한 에코체임버는 이와는 약간 다르다. 김선호 한국언론진흥재단 선임연구위원은 “에코체임버와 필터버블 사이에는 사용자의 주관적인 선택이 있느냐 없느냐의 차이가 있다”고 설명했다. 에코체임버는 사용자가 특정 성향에 의해 ‘선택한’ 정보로 만들어진 편향적인 현상으로 양극화 문제가 발생한다면 필터버블은 더 분절적이다. 사용자의 의지가 더 적게 개입되고 각자 접하는 정보가 달라 매우 개인화된 세계를 만들어낸다.

이미 우리는 수많은 정보 중 적절히 걸러진 정보만을 접하고 있다. 똑같이 구글에 ‘Donald Trump’를 검색하더라도 일본에 사는 자영업자 기무라 미유키씨가 보는 결과와 한국의 직장인 조은희씨가 보는 결과는 다르다. 사는 곳, 나이, 성별, 직업과 그동안의 인터넷 활동 등을 고려해 구글이 적절한 정보를 골라 제공하는 것이다. 사실 지금까지는 이런 검색 결과가 큰 문제가 되지 않았다. 너무 많은 정보가 인터넷의 문젯거리로 여겨져왔기 때문이다. 적절하게 정보를 취사선택하고 가공해 사용하는 정보처리 능력은 바람직한 것으로 장려돼왔다. 기술의 발전은 정보처리의 어려움을 덜어줄 수 있는 긍정적인 것이었다. 그러나 완전히 자동화된 알고리즘이 사용자의 생각까지도 대체하게 되면서 문제가 생겼다. 필터버블을 처음으로 주장한 엘리 프레이저는 필터버블이 오히려 더 비민주적인 사회를 불러올 수 있다는 점을 명확히 경고한다.

네이버에서 시범운영 중인 인공지능 뉴스 추천 서비스 AiRs.
네이버에서 시범운영 중인 인공지능 뉴스 추천 서비스 AiRs.

정보 편식 속에 토론은 감소

우선 필터버블 상황에서 정보는 사용자가 직접 선택한 것이 아니다. 어떤 정보가 걸러지는지 사용자가 알지 못한다는 점이 제일 위험하다. 사용자의 취향에 맞지 않을 것으로 판단돼 걸러지는 정보는 사실 세계의 일부분이다. 예를 들어 시사 이슈에는 별 관심이 없고 거의 알지 못하는 사람이 ‘일본’에 대해 검색한다고 할 때 추천 알고리즘이 완성한 이 사람만의 인터넷에서는 일본의 최근 시사 이슈, 예를 들어 아베 총리의 모리토모학원 스캔들과 관련한 뉴스는 아예 감춰져 제대로 보이지 않게 될 것이다. 오랜 시간 일본에 대해 검색하고 정보를 얻더라도 필터로 걸러진 정보, 일본 사회의 갈등에 대해 제대로 이해하지 못할 가능성이 크다.

거의 모든 인터넷 활동에서 이런 필터버블이 나타난다고 생각해보자. 이건 불가능한 일이 아니다. 이미 뉴스에서는 구글과 네이버가 정교한 추천 알고리즘을 만들겠다고 선언했고 유튜브와 넷플릭스, 페이스북과 인스타그램 등 모든 플랫폼에서 추천 알고리즘이 작동 중인 상황이다. 이들 플랫폼에 한정해보자면 사용자의 인터넷 환경은 백이면 백 모두 달라 각자 다른 세계에서 살고 있는 셈이다.

일종의 ‘정보 편식’이 심해지는 상황이다. 관심 없지만 알아야 하는 정보를 접하고 서로 다른 의견을 교환하는 일은 필터버블에서 해내기 어려운 것이 되어버렸다. 단지 정보만 분절적으로 제공되는 것이 아니다. 사회 자체가 개별화될 가능성이 있다. 이성규 메디아티 미디어테크랩장은 “필터버블 사회에서는 토론이 감소하고 편향된 거품 속에서 자신들만의 사고를 강화시키는 결과를 낳을 수밖에 없다”고 경고했다. 엘리 프레이저 역시 책 ‘생각 조종자들’에서 이런 점을 지적한다. “궁극적으로 시민들이 편협한 자기 이해관계를 넘어 생각할 수 있을 때 민주주의는 비로소 작동한다. 그러나 그렇게 하려면 우리는 서로 세상에 대한 시각을 공유해야 한다. 우리는 다른 생활방식과 다른 욕구를 가진 사람들과 서로 살을 맞대야 한다. 그러나 필터버블은 우리를 다른 방향으로 밀어낸다.”

그렇다면 필터버블 사회에서 전체를 보는 것은 누구일까. 플랫폼 회사, 정확히는 플랫폼 회사가 개발한 알고리즘이다. 알고리즘은 정확한 결과를 내놓기 위해 수많은 정보를 취합해 만들어진다. 그런데 이 정보가 객관적인 것인지, 정보의 처리 과정이 가치중립적인지 알기 힘들다. 이는 단지 이념적인 문제만이 아니다. 예를 들어 인터넷에서 가볍게 즐길 만한 연예 뉴스만을 읽는 사람이 있다고 가정해보자. 추천 알고리즘은 그에게 계속해서 관련 뉴스만 가져다줄 것이다. 동영상 추천 앱에서는 연예인의 가십거리가 담긴 영상이 맨 위에 뜰 것이다. 그러나 행동하는 것과 추구하는 것이 다를 경우가 있다. 선정적인 뉴스를 많이 보기는 하지만 더 분석적이고 거시적인 정보를 접하고 싶을 때는 알고리즘 바깥에서 정보를 구해야 한다.

다시 말해 추천 알고리즘은 결과를 중시하는 귀납적인 방식으로 구성돼 있다. ‘무엇을 했는지’에만 초점을 맞추다 보니 ‘무엇을 해야 하는지’에 대해서는 별로 고려하지 않는다. 과거의 행동을 취합하는 데는 탁월하지만 조금 더 추상적이고 당위적이며 미래지향적인 가치를 추구하는 데는 부적합할지도 모른다. 정보 편식 사회에서는 ‘건강한 미래’를 잃어버릴 가능성이 높다는 얘기다.

하지만 아직 필터버블이 얼마나 진행 중인지에 대한 실증적 연구 결과는 없다. 김선호 선임연구위원은 “아직 기술적 완성도 때문에 완전히 필터링된 상황이 아닌 데다가 한국에 한해서는 네이버 뉴스가 여전히 편집자의 편집에 따라 일률적으로 제공되고 있기 때문에 필터버블 현상이 뚜렷하게 드러나지는 않고 있다”고 설명했다.

특히 한국의 경우 네이버 같은 거대 포털사이트가 뉴스를 직접 편집하면서 어떤 사용자든 같은 뉴스를 보아왔다. 검색엔진을 개발할 때도 사용자에게 꼭 필요한 정보를 제공하는 것보다 검색엔진의 영향력을 확보하는 데 더 초점이 맞춰져 있었기 때문에 개별화가 덜 이뤄졌던 것이 사실이다. 실제로 한국언론진흥재단의 ‘디지털 뉴스 리포트 2017’ 보고서를 보면 포털이나 SNS, 뉴스 수집 플랫폼 등을 통해 “평소 관심 없던 내용의 뉴스도 접하게 된다”는 응답이 절반 이상으로 외국에 비해 눈에 띄게 높았다. 김선호 선임연구위원은 “필터버블이 당장 드러나고 있다는 것은 아니지만 필터버블의 가능성이 완전히 기각된 것은 아니다”면서 “앞으로 더 진화된 기술로 맞춤형 정보를 제공하는 플랫폼이 늘어날 예정인 만큼 예의 주시해야 한다”고 말했다.

개별화된 정보를 제공하는 추천 알고리즘이 점차 인터넷 전반으로 적용되고 있는 것이 사실이다. 당장 이번 ‘구글 I/O’만 보더라도 ‘인공지능 퍼스트’를 외치며 내놓은 목표는 “모두에게 최적화된 개인용 구글(personalized Google for each user)”이다. 사용자 맞춤형 인공지능 비서가 사람처럼 작동하고 거의 모든 구글의 기능이 사용자에게 필요한 대로 조립되는 것이 구글이 꿈꾸는 미래다. 넷플릭스나 유튜브 같은 글로벌 플랫폼은 물론 네이버, 카카오 같은 국내 플랫폼까지도 더 개별적이고 정확한 정보를 제공하기 위한 기술을 발전시키는 데 초점을 맞추고 있다.

알고리즘의 공공성과 책임의식이 중요

이런 상황에서는 개별화된 정보사회가 필터버블을 일으키지 않도록 미리 예방하는 것이 필요하다. 하지만 필터버블에 대해 막 논의가 시작된 상황에서, 어떻게 필터버블을 막을 수 있을지 고민한 전문가는 극히 드물다. 미국에서는 몇몇 보완적인 알고리즘이 개발되기도 했다. MIT 미디어랩에서 만든 ‘플립피드(Flipfeed)’라는 확장프로그램은 트위터 이용자가 자신의 뉴스피드를 반대 성향으로 바꾸어 볼 수 있게 한다. 페이스북에서 반대 진영의 의견을 들어볼 수 있게 뉴스를 삽입해주는 프로그램도 있다. 그러나 이렇게 다양성을 보완하는 프로그램만으로는 부족하다는 것이 전문가들의 지적이다.

서봉원 서울대 교수는 “알고리즘과 알고리즘을 개발하는 기업에 공공성과 책임의식을 강조할 필요가 있다”고 말했다. 매스미디어 시대에도 정보를 걸러 대중에게 전달하는 일은 늘 있었지만 이를 담당하던 언론사는 공공성을 잃지 않기 위해 부단히 노력해왔다. 앞으로는 알고리즘이 그 공공성의 문제를 짊어질 차례라는 것이다. “알고리즘의 투명성을 높여야 한다”고 주장하는 전문가도 있다. 어떤 정보가 어떻게 가공되는지 알 수 있어야 하고, 그것이 사회에 어떤 영향을 미칠지 함께 논의해나갈 시간이 필요하다는 것이다.

필터버블의 위험성을 끊임없이 강조하는 엘리 프레이저는 책 ‘생각 조종자들’에서 미국 대중문화계에 널리 알려진 유명한 문장을 인용했다. 수퍼히어로 만화 ‘스파이더맨’의 작가 스탠 리가 만들어낸 “큰 힘에는 큰 책임이 따른다(With great power comes great responsibility)”라는 문장이다. 그는 고도의 인공지능 기술로 인해 발생할 필터버블 문제를 해결하기 위해서는 “기술적인 능력과 인간에 대한 이해가 결합되어야 한다”며 기술개발자들의 책임을 강조했다.

키워드

#심층취재
김효정 기자
저작권자 © 주간조선 무단전재 및 재배포 금지