의견 극단화 등 개선책 내부 팀 연구 불화·갈등에 끌리는 뇌 악용결론

추천 알고리즘 조정 방안 나왔지만 보수 콘텐츠 노출 감소 우려로 손놔

            

페이스북이 자사의 알고리즘이 사람들 사이에 갈등을 부추긴다는 자체 분석 결과를 내놓고도 이를 거의 묵살한 것으로 드러났다고 미국 경제지 <월스트리트 저널>26일 보도했다.

이 신문은 비공개 내부 문건과 분석 작업에 관여한 인물들의 증언 등을 종합해, 2017~2018년 진행된 개선책 연구 결과 중 상당수는 사장됐고, 실제 서비스에 적용된 것들은 애초 의도보다 약화됐다고 보도했다.

페이스북은 2016년 미국 대선 과정 등에서 소셜미디어를 통한 가짜 뉴스 유포·확산이 사회 문제가 되자, 데이터 과학자 등으로 공통 기반 팀진실성 팀을 구성해 사용자 의견의 극단화와 갈등 심화를 개선하기 위한 연구를 진행했다.

페이스북 임원들과 극단화 문제를 논의한 바 있는 미디어 전문가 일라이 패리서는 작업 초기에는 맙소사, 우리가 세상을 진짜 망치고 있으면 어쩌지?’라는 분위기가 있었다고 전했다. 그는 경영진 등의 태도가 달라진 것은 2018년 초 영국 정치자문 회사 케임브리지 애널리티카가 페이스북 이용자의 정보를 동의 없이 빼내 선거에 활용한 사건이 터지면서라고 말했다. ‘우리가 뭘 하든 언론이 우리를 증오하니, 위기에나 대비하자는 분위기가 팽배해졌다는 것이다.

이런 분위기 속에서 내부 분석 팀은 페이스북의 알고리즘이 불화와 갈등에 끌리는 인간 두뇌를 악용하고 있다이를 그냥 놔두면, 페이스북은 사용자의 관심을 끌고 더 오래 잡아두기 위해 갈등을 유발하는 콘텐츠를 점점 더 많이 노출시키게 될 것이라는 분석 결과를 내부 회의에서 공유했다. 이들은 갈등이 심한 사안에 대한 의견 제시 횟수를 제한하고 사용자들이 다양한 의견 집단을 접촉하도록 추천 알고리즘을 조정하는 것 등을 개선책으로 내놨다.

하지만 페이스북 경영진은 분석 결과를 적용하는 데 큰 관심을 기울이지 않았다. 페이스북이 알고리즘 변화를 꺼린 배경 중 하나는 정치적 고려였다. 보수 이용자들과 언론매체들은 페이스북이 좌편향이라고 공격해왔는데, 알고리즘을 바꾸면 보수 콘텐츠 노출이 상대적으로 더 많이 줄면서 논란이 커질 것이라는 우려가 작용한 것이다. 논의 과정에서 마크 저커버그 최고경영자(CEO)공공의 선을 위한 서비스 변경에 관심을 잃어갔다고 관계자들이 전했다.

정책 총책임자 조엘 캐플런은 최근 한 인터뷰에서 토론 분위기 개선을 위한 일정한 변화를 경영진이 승인했고 규율과 엄밀함, 책임감을 서서히 반영하려 노력하고 있다고 말했다. 하지만 실제로 뭘 바꿨는지는 거의 공개되지 않았다.

<월스트리트 저널>은 미국 대통령 선거를 앞두고 있는데다 페이스북이 코로나19 관련 음모론을 퍼뜨리는 통로가 되고 있는 지금, 의견 극단화와 갈등 심화는 더욱 심각한 문제가 되고 있다고 지적했다. < 신기섭 기자 >